ARQUITECTURA BIODIGITAL
Hacia un nuevo paradigma en la arquitectura contemporánea
Fraile, Marcelo Alejandro
Arquitectura biodigital : Hacia un nuevo paradigma en la arquitectura contemporánea /
Marcelo Alejandro Fraile - 1a ed ilustrada. - Ciudad Autónoma de Buenos Aires : Diseño, 2019.
376 p. : il. ; 29×20 cm.
ISBN 978-1-64360-033-8
1. Arquitectura. 2. Arquitectura biodigital. 3. Crítica. I. Título
Hecho el depósito que marca la ley 11.723
Impreso en Argentina / Printed in Argentina
La reproducción total o parcial de esta publicación, no autorizada por los editores,
viola derechos reservados; cualquier utilización debe ser previamente solicitada.
Tapa: Reinterpretación de la cabaña primitiva de Laugier, con los 3 paradigmas de la historia:
el clásico, el mecánico y el biodigital.
Autor. Marcelo Fraile
Propiedad Intelectual
RE-2018-46295072-APN-DNDA#MJ
RL-2018-46294996-APN-DNDA#MJ
© 2019 de la edición, Diseño Editorial
ISBN 978-1-64360-033-8
Enero de 2019
Este libro fue impreso bajo demanda, mediante tecnología digital Xerox en
bibliográfika de Voros S. A. Carlos Tejedor 2885, Munro, Provincia de Buenos Aires.
info@bibliografika.com / www.bibliografika.com
En venta:
LIBRERÍA TÉCNICA CP67
Florida 683 - Local 18 - C1005AAM Buenos Aires - Argentina
Tel: 54 11 4314-6303 - Fax: 4314-7135 - E-mail: cp67@cp67.com - www.cp67.com
FADU - Ciudad Universitaria
Pabellón 3 - Planta Baja - C1428BFA Buenos Aires - Argentina
Tel: 54 11 4786-7244
ARQUITECTURA BIODIGITAL
Hacia un nuevo paradigma en la arquitectura contemporánea
Marcelo Alejandro Fraile
INDICE
Introducción .................................................................................................. 19
PARTE 1. PRESENTACIÓN DEL PROBLEMA
- Un acercamiento al problema ................................................................25
- Estableciendo el marco teórico de acción .............................................29
Una aproximación histórica al término Paradigma ..................................30
Kuhn y la Teoría de los Paradigmas........................................................32
Las Hipótesis de Pepper .........................................................................37
La teoría de Estévez ...............................................................................40
PARTE 2. ALGUNAS IDEAS DE PARADIGMA Y SUS CICLOS
- Los paradigmas en la historia .................................................................45
- La etapa preteórica ..................................................................................49
- Las primeras construcciones ................................................................49
- El camino hacia un pensamiento universal...........................................51
- El paradigma clásico ................................................................................55
- El carácter de la mímesis como definidora de belleza..........................55
- La construcción albertiana del paradigma clásico ................................60
- La crisis del paradigma clásico .............................................................72
- El paradigma mecánico ...........................................................................75
- La revolución industrial ......................................................................... 76
- El papel de las vanguardias ..................................................................78
- De la máquina y el habitar ....................................................................80
- Hacia una arquitectura ..........................................................................83
- Tres ejemplos ........................................................................................87
- La evolución mecanizada de los ‘60 .....................................................91
- El comienzo del fin................................................................................93
PARTE 3. EL PUNTO DE INFLEXIÓN
- El estado de crisis según Kuhn ..............................................................97
- La fusión de los sólidos ........................................................................97
- El comienzo de la crisis ........................................................................98
- Siete anomalías ................................................................................... 100
- Anomalía 1. Globalización. Juntos pero divididos................................ 101
- De la net a la internet .......................................................................... 103
- El largo camino hacia la virtualización de lo real ................................. 105
- Del ciberespacio a la arquitectura líquida ............................................ 108
- Arquitectura de globalización ............................................................... 111
- Anomalía 2. Las nuevas herramientas digitales de
representación ........................................................................................... 115
- La conquista de la curva ..................................................................... 116
- Tras la imagen digital ........................................................................... 125
- La representación digital ...................................................................... 126
- Del pez a la casa Lewis ....................................................................... 131
- La representación en el nuevo milenio ................................................ 133
- Anomalía 3. La materialidad: prefabricación a la carta ........................ 135
- La mecanización consciente................................................................ 136
- Los robots del amanecer ..................................................................... 139
- La fabricación digital ............................................................................ 143
- Self service - Hágalo usted mismo ...................................................... 146
- El futuro es hoy .................................................................................... 148
- Anomalía 4. Las complejas formas biodigitales ................................... 151
- Geometrías Topologías. La abstracción de la forma............................ 151
- El camino hacia las complejas formas de la biología .......................... 167
- Anomalía 5. La ecología: cuando todo es verde................................... 171
- Del high tech al eco-tech ..................................................................... 172
- Modelos de alta eficiencia ................................................................... 176
- Una mirada sustentable al mañana ..................................................... 182
- Anomalía 6. Los Metadiseñadores ......................................................... 185
- Los diseñadores del nuevo paradigma ................................................ 185
- Las jóvenes promesas ......................................................................... 192
- Anomalía 7. El diseño paramétrico ......................................................... 193
- Orígenes de los sistemas paramétricos .............................................. 193
- Los modelos paramétricos digitales como configuradores
del proyecto........................................................................................195
- Ventajas y desventajas de los sistemas paramétricos ......................... 196
- Parametricismo digital ......................................................................... 199
- El diseño paramétrico como potenciador de la materialización
computacional ........................................................................................200
- Apostillas para el siglo XXI ....................................................................204
- Un ejemplo. Ocho anomalías: el Museo Guggenheim de Bilbao ........205
- El concurso ..........................................................................................205
- Un riguroso programa de necesidades ................................................207
- La representación hibrida de la forma .................................................209
- El proceso de ejecución....................................................................... 212
- La singularidad intrínseca.................................................................... 213
PARTE 4. EL NUEVO PARADIGMA BIOLÓGICO-DIGITAL
- El génesis biológico................................................................................ 215
- La lógica de lo líquido ........................................................... 215
- El siglo biológico ................................................................... 217
- La naturaleza, esa diseñadora eficiente. El papel de la
biología en el diseño contemporáneo ....................................... 218
- El modelo biológico ................................................................................221
- Morfogénesis .......................................................................................221
- De la teoría de la evolución a las leyes de la herencia genética .........222
- Genética de la evolución .....................................................................224
- A la caza del ADN ................................................................................225
- El alfabeto del ADN ..............................................................................226
- El mensajero de los dioses ..................................................................226
- Mutaciones .........................................................................................228
- Las teorías de D´Arcy Thompson ........................................................230
- La morfogénesis de Alan Turing...........................................................232
- La teoría de la catástrofe de René Thom.............................................234
- El modelo biológico digital.....................................................................237
- Algoritmos ...........................................................................................238
- Primera generación. Los autómatas celulares de Neumann ...............239
- Segunda generación. La vida artificial: el juego de la vida de
Conway ..................................................................................................241
- Tercera generación. De los autómatas celulares a la IA ......................243
- Cuarta generación. Los algoritmos genéticos .....................................250
- Morfogénesis digital en arquitectura .....................................................261
- La naturaleza como fuente de inspiración ...........................................261
- La elaboración del modelo digital en arquitectura ...............................263
- Los cuatro caminos de la evolución .....................................................266
- Arquitectura biodiagramática .................................................................267
- Diagramas ...........................................................................................267
- La arquitectura biodiagramática...........................................................269
- Los diagramas de Peter Eisenman .....................................................270
- El Cubo de Agua ..................................................................................278
- Los diagramas del nuevo milenio ......................................................279
- Arquitectura bioalgorítmica ....................................................................283
- El concepto de emergencia en la arquitectura.....................................283
- Trabecuale ...........................................................................................286
- El parásito ............................................................................................288
- La casa embriológica...........................................................................291
- La herencia de la casa embriológica ................................................... 301
- Arquitectura biomimética. ......................................................................303
- Biomímesis ..........................................................................................303
- Los tres caminos de la biomímesis......................................................306
- Teoría de enjambre ..............................................................................323
- Las enseñanzas de la naturaleza para el nuevo milenio .....................329
- Arquitectura genética ..............................................................................333
- Salvador Dalí y la biología ...................................................................333
- El bioarte .............................................................................................334
- La era de las protocélulas ....................................................................337
- Arquitectura genética ...........................................................................340
PARTE 5. CONCLUSIONES
La navaja de Ockham ................................................................................349
1. El diseño digital......................................................................................350
2. La prefabricación aditiva ......................................................................352
3. La ingeniería de los materiales inteligentes .......................................353
4. La exploración de nuevas funcionalidades biológicas ......................354
Colofón .......................................................................................................355
PARTE 6. BIBLIOGRAFÍA
Bibliografía general ......................................................................................359
Para Nery, Elda y Nilda Narvaez
AGRADECIMIENTOS
Para el arquitecto Zaera Polo, la construcción de mapas, es una de las formas de producir conocimiento: una
herramienta para operar sobre el territorio, un instrumento de polémica, que nunca puede ser entendida como
una verdad absoluta.
Del mismo modo, este libro, puede ser comprendido como un mapa, una cartografía que busca conectar seis
puntos, que son también seis ciudades recorridas durante seis años, en un proceso de investigación que involucró a numerosas personas hasta su concreción definitiva.
El primer punto de este mapa corresponde a la ciudad de Buenos Aires: en este lugar comenzarian a definirse
los primeros trazos de lo que con el tiempo, se convertiria en el anteproyecto de mi plan de tesis de doctorado.
Trabajo que tuvo el auxilio de mi director y amigo el arquitecto Julio Valentino, mi principal crítico, que sin sus
correcciones precisas y dedicación constante hubiera sido imposible la redacción de este libro. También mi agradecimiento al Dr. Ángel Navarro, cuya guía y apoyo continuo fueron fundamentales en este proceso.
El segundo punto corresponde a la ciudad de Santiago de Chile, y en la persona del Dr. Hugo Mondragón, que
conocí a raíz de una publicación de la Maestría de Prefabricación, de la Universidad Católica de Chile, y quien
después de leer el anteproyecto de mi tesis, aceptó ser mi codirector, mostrandose siempre dispuesto a colaborar. La producción del arquitecto Mondragón y de su equipo, fueron fundamentales para la elaboración de los
contenidos relacionados con la nueva materialización.
El tercer punto corresponde a la ciudad de Gijón, en Asturias, España, en donde por invitación del Dr. Ramón
Rubio, pude pasar una temporada investigando en la Facultad de Ingeniería de la Universidad de Oviedo, junto
con su equipo de trabajo, en especial junto a la Dra. Marlen López Fernández. Allí pude comenzar a delinear los
aspectos más representativos del marco metodológico y de las teorías de Biomímesis.
El cuarto punto corresponde a la ciudad de Barcelona, en donde por invitación del Dr. Alberto Estévez, de la Universidad Internacional de Catalunya, pude pasar dos temporadas: estudiando primero, e investigando después
junto con su equipo de trabajo. Este periodo fue fundamental para encontrar las herramientas teóricas y prácticas
que darían cuerpo a mi tesis.
El quinto punto corresponde a la ciudad de Londres, y mis visitas a la Architectural Association, en donde pude
asistir a diferentes Jury de la Maestría de Proyectos Complejos del Arquitecto Patrick Schumacher, lo que me
permitió incorporar una importante carga teórico/tecnológica al proyecto.
El sexto punto corresponde a la ciudad de Madrid, en donde pude madurar y comenzar a escribir las conclusiones finales de mi tesis. En esta etapa debo agradecer al Dr. Isidro Moreno Sánchez de la Universidad complutense de Madrid, y su programa de doctorado, asi como tambien a mi amiga Begoña Bilbao por su paciente ayuda.
Finalmente, el circulo se cierra donde comenzó, en la ciudad de Buenos Aires, en donde quedarian definidos los
ajustes finales de la tesis. Aquí debo mi agradecimiento a todos mis compañeros de trabajo de Teoría, Historia,
Introducción a la Arquitectura Contemporanea y Conocimiento Proyectual de la Facultad de Arquitectura, Diseño
y Urbanismo, de la Universidad de Buenos Aires, en especial a la Dra. Marta Miras, por su recomendaciones y
orientaciones epistemològicas; al equipo de TRP21, en la figura de la arquitecta Sofia Piantanida; así como también, al equipo del Doctorado, en especial a la arquitecta Mabel Trosoli, por su atención y amabilidad en todo lo
referente a mi período como estudiante.
A todos, muchas gracias.
Diciembre de 2018.
PRÓLOGO
“La actividad teórica, por su naturaleza especulativa, anticipatoria… se refiere en mayor medida a las aspiraciones de la arquitectura que a sus concreciones”. Kate Nesbitt, Theorizing a New Agenda for Architecture, 1996
En las últimas décadas la teoría de la arquitectura se presenta con características de fragmentación y de
inestabilidad. Esta es una condición actualmente aceptada y podría definirse como un “estado endémico de
‘crisis teórica’, en el que no dominará la lógica de los límites sino la del hipertexto: el salto repentino de una
secuencia a otra”.1
El fenómeno no sólo resulta evidente en el ámbito de la arquitectura, sino que también se manifiesta en el campo de las expresiones sociales y culturales. Si el sociólogo Zygmunt Bauman había utilizado la metáfora de la
“modernidad líquida” para definir el estado de “fluidez” y “movilidad” de la cultura de finales del siglo XX, para
diferenciarla de los modelos estables de interpretación del mundo, característicos de la etapa anterior de la
modernidad, pareciera que hoy se ha pasado a un estado aún más evanescente. Un estado que el filósofo Yves
Michaud ha denominado “état gazeux” (estado gaseoso),2 propio de ciertas manifestaciones culturales, donde
el cometido es ahora extremadamente evasivo, sin posibilidad de ninguna idea unificadora y, por lo tanto, similar
a la ligereza e indefinición del aire.
En el caso de la teoría arquitectónica, esta disolución compartida de los límites disciplinares y la “contaminación”
con los aportes de otros campos del conocimiento, ha sido un proceso que se ha acentuado a partir de la década
de 1960, y que ha asumido manifestaciones o conexiones que han ido variando hasta la actualidad. Los textos
teóricos cambian profundamente, ya que proponen “un intercambio de ideas sin precedentes entre disciplinas
–las artes, la filosofía, la crítica literaria”. 3 La aseveración del arquitecto Bernard Tschumi pone en evidencia que
nunca como antes el campo disciplinar ha ampliado sus alcances y sus vínculos con diferentes saberes.
Sin embargo, este intercambio al que alude Tschumi, en el siglo XXI se desplaza hacia otros caminos de hibridación. El vínculo entre arquitectura y ciencia recupera nuevamente intensidad en ciertos desarrollos de la teoría
arquitectónica, proponiéndose como uno de los caminos más fértiles de exploración. La jerarquía que en el mundo actual comienzan a tener, entre otros, los parámetros ambientales, económicos y materiales, imponen un uso
eficiente de los recursos, modificando tanto los discursos como los propios procesos de ideación y construcción;
y la arquitectura parece encontrar especialmente en las ciencias biológicas, la lógica de optimización de los recursos aplicables a sus propios procesos de proyectación.
Dentro de esta condición de límites imprecisos es evidente que el pensamiento arquitectónico recorre el universo
de la transdisciplina y “el campo de la experimentación con diversos procedimientos proyectuales navega en medio de márgenes amplios y difusos, [condición que] puede quedar representada por la construcción de un nuevo
par de términos opuestos: agregación y desagregación:
- la agregación de nuevos saberes al territorio disciplinar en el aprovechamiento de elementos detonadores de
procesos proyectuales definidos por el pensamiento analógico;
- y la no-agregación de los discursos teóricos construidos a un sistema abarcante y ordenador de la teoría disciplinar que supere la condición fragmentaria de aquellos”.4
Esta situación contemporánea expresada en relación al campo disciplinar, se puede verificar tanto como pensamiento arquitectónico y también en otros aspectos como en la relación teoría-práctica, en la concepción del
1 Prestinenza Puglisi, Luigi, “Anything Goes”, AD Theoretical Meltdown, Vol. 79, Nº 1, Enero-Febrero 2009, p. 11.
2 Michaud, Yves, L’art à l’état gazeux. Essai sur le triomphe de l’esthétique, Paris, Ed. Stock, 2003.
3 Tschumi, Bernard, Prefacio a Ockman, Joan, Architecture Culture 1943-1968, New York, Rizzoli International
Publication, 1993.
4 Gimenez, C. G., Miras, M., Valentino, J., La arquitectura cómplice, Buenos Aires, nobuko, 2011, pp. 160-161.
proyecto, del diseñador y en el uso de las nuevas tecnologías. Aquí cobran un valor central las tecnologías digitales relacionadas con el proyecto y la materialización de la arquitectura. El perfeccionamiento del hardware
ha logrado la aparición de softwares cada vez más sofisticados, que permiten el fácil manejo de gran cantidad
de variables propias de una situación determinada, permitiendo su cálculo, control y evaluación constante y en
tiempo real, con simulaciones que ofrecen alternativas ante la modificación de alguna de ellas. La representación
de entidades abstractas, funciones y ecuaciones son herramientas habituales.5
Entonces, en este marco de grandes transformaciones, ¿cuáles serían los nuevos desafíos y enfoques para
la disciplina? ¿Cómo podría caracterizarse el proyecto? ¿Cómo se definiría un diseñador, qué saberes deberá
considerar? Estos parecen ser, en términos generales, los principales interrogantes que dan origen a este libro:
Arquitectura biodigital. Hacia un nuevo paradigma en la arquitectura contemporánea.
Paradigmas y anomalías
El término paradigma ha sido utilizado en distintas disciplinas, con significados diversos que han ido variando a
lo largo del tiempo, desde el propuesto por Platón hasta las consideraciones actuales, tal cual se explica en la
primera parte de este libro.
De todos modos, el autor toma como referente principal para el sustento de su trabajo, las ideas planteadas por
el filósofo Thomas Khun en su influyente texto La estructura de las revoluciones científicas de 1962, donde básicamente cuestiona el modo habitual de concebir la evolución de las ciencias.
Para completar la base teórica con la que Fraile desarrolla su análisis, vincula las ideas de Khun con las del
filósofo de la ciencia Stephen Pepper, quien en World Hyopotheses: A Study in Evidence (1942), introduce el
concepto de metáfora como la manera más adecuada de comprender la realidad. Allí establece cuatro categorías
o visiones del mundo: la formista, la mecanicista, la organicista y la contextualista, que ponen en crisis las bases
del racionalismo científico.
Finalmente, se incluye una tercera fuente: el artículo “Arquitectura Biomórfica” (1998), del profesor Alberto Estévez, quien analiza el desarrollo histórico de la arquitectura según tres estadios: el pasado clásico, el presente
moderno y el futuro genético.
A partir de la consideración de estas doctrinas, Fraile las analiza, las confronta, adoptando una mirada multidireccional y pluridisciplinar, compleja, cruzando ideas entre campos, que le permite establecer categorías, periodizaciones y puntos de vista para avanzar en el análisis de la realidad contemporánea y en las características
novedosas de muchos de sus productos arquitectónicos y urbanos.
Finalmente, el autor presenta la situación actual caracterizada por la aparición de un nuevo paradigma que denomina biológico-digital, en el que se concentra su estudio.
Sin embargo, ¿cómo se producen los cambios de paradigmas? ¿Qué condiciones deben presentarse para que
esto ocurra? ¿Qué ha sucedido para que el paradigma anterior, llamado por el autor mecánico, haya entrado
en crisis?
Para explicar la situación, recurre nuevamente a la figura y las ideas de Khun, quien propone en referencia a esta
cuestión el concepto de anomalía.
Sintéticamente, las anomalías son síntomas dentro de un paradigma que evidencian la existencia de cuestiones que no pueden resolverse con las ideas que contiene y lo sustentan; por lo tanto en necesario un
cambio de modelo que se adecue al surgimiento de nuevas situaciones, el inicio de una revolución científica,
5 Sobre esta cuestión ver, por ejemplo, Carpo, Mario (ed.), The Digital Turn in Architecture. 1992-2012, Chichester, J.
Wiley & Sons, 2013.
el desarrollo de nuevos fundamentos que reemplacen a lo anterior, proceso al que Khun denomina inconmensurabilidad.
Extrapolando estas consideraciones al campo disciplinar, Fraile encuentra siete anomalías, que estudia y describe con profundidad: la globalización con su proceso de virtualización; las nuevas herramientas digitales; la
nueva materialidad con los novedosos procesos de fabricación; las complejas formas biodigitales inspiradas en
la naturaleza; la importancia que asume la ecología con el desarrollo de modelos de eficiencia y sustentabilidad;
la aparición de los metadiseñadores, nuevos protagonistas de la proyectación con habilidades novedosas; y el
diseño paramétrico como un nuevo enfoque en la concepción del proyecto.
Las anomalías mencionadas anteriormente son ampliamente sustentadas por textos, ejemplos, obras, tanto pertenecientes al campo disciplinar como a otras disciplinas que permiten una comprensión acabada del planteo.
Las mismas, por una cuestión operativa que el autor determina se circunscriben al período 1988 – 2014 en el
que concentrará su estudio.
Esta parte del libro concluye con el análisis del Museo Guggenheim de Bilbao (1997) de Frank Gehry, en el que
Fraile ve ejemplificados los síntomas del cambio que ha descripto y que señalan de manera contundente una
nueva concepción de la arquitectura.
La arquitectura biológico-digital
Como ya se ha mencionado, en este proceso de “contaminación entre la arquitectura y otros saberes, es indudable que en la actualidad el cruce con las denominadas “ciencias de la vida” ha adquirido en la actualidad
una relevancia indiscutible. De todos modos, este vínculo puede rastrearse con claridad a lo largo de diferentes
etapas de la historia, fundamentalmente a partir del siglo XVII. Este va desde las simples referencias formales al
mundo animal o al vegetal hasta la recurrencia a los modelos más avanzados de la genética y de otros estudios
de la biología actuales.
Inicialmente, el texto explora en esta parte –sin duda la más estimulante– el concepto de morfogénesis, definido
genéricamente como la asunción de la naturaleza como fuente de inspiración de los procesos de ideación. Pero
esta noción va indisolublemente asociada a otro término: lo digital. Los medios digitales son las herramientas
indispensables para el control y la toma de decisiones en estos procedimientos analógicos.
Una serie de nuevos términos y procedimientos, ajenos en general hasta ahora al ámbito de la disciplina, se
analizan profundamente y ejemplifican como característicos de la nueva situación.
La genética de la evolución, las implicancias del descubrimiento del ADN, la teoría de la catástrofe o del enjambre, la vida artificial, la biomímesis, los autómatas celulares, los diagramas, el concepto de emergencia, son
ideas y procesos provenientes de campos en principio ajenos al ámbito disciplinar pero que ahora se constituyen
en conocimientos y fuentes indispensables para concebir los objetos propios del siglo XXI. Objetos que estarán,
pareciera, indisolublemente ligados a las propuestas del desarrollo de las ciencias biológicas y de los procedimientos digitales.
Como lo sintetiza el autor, la arquitectura propia de la contemporaneidad debe ser “una arquitectura de materiales avanzados, que incorpora la nanotecnología como respuesta para sacar partido de sus limitaciones. Una
arquitectura genética digital, de pieles maleables, de membranas semipermeables, transformables, traslúcidas,
capaces de transpirar, que coopera con el entorno, que crea un microclima interno, calentándose en invierno
y refrescándose en verano. Una arquitectura desarrollada me¬diante una tecnología de última generación que
obtiene sus materiales de los otros reinos. Una arquitectura que integra forma, materia y estructura, para producir
un diseño autosuficiente y emergente”.
El fin de lo clásico
En 1987 el arquitecto Peter Eisenman pronosticaba “el fin de lo clásico”,6 en alusión a una forma de concebir
la arquitectura que había permanecido vigente por más de cinco siglos. Ese mismo año realizaba el proyecto
para el Biocentro de la Universidad de Frankfurt, donde “difuminando los límites disciplinares”, generaba en su
proceso de creación de la obra un vínculo entre arquitectura y biología. ¿Eran estas las primeras señales de un
cambio de paradigma?
Probablemente, en la que podría ser la primera aparición contemporánea de la articulación de los términos de
ese par disciplinar, se encuentre el origen de la gestación de este libro. Un texto que sin duda constituye un aporte invalorable para la reflexión sobre la teoría y la práctica de la arquitectura actuales: su rigurosidad de análisis,
la multiplicidad de ejemplos presentados, la amplísima bibliografía consultada dan cuenta de la profundidad y
calidad de este estudio.
Pero sin duda, el aporte más valioso de la propuesta es su carácter especulativo, cuestionador de la situación actual, las preguntas con respuestas pendientes, la apertura de nuevos caminos de indagación que quedan abiertos.
Señales de las aspiraciones y los deseos de lo que, tal vez, ya ha comenzado o está por venir.
Julio Valentino, diciembre 2018
6 Rizzi, Renato (ed.), Peter Eisenman. La fine del classico, Venezia, CLUVA Ed., 1987.
Marcelo A. Fraile - Arquitectura biodigital
INTRODUCCIÓN
“Esta vez, no pretendemos aprender sobre la naturaleza, sino aprender de la naturaleza…”. Janine Benyus
(2012, p. 13).
La rápida e intensiva evolución experimentada por las tecnologías digitales a finales del siglo XX ha traspasado diversos umbrales socioculturales, extendido su presencia a casi todos los ámbitos de nuestra existencia.
La incorporación de lo digital ha transformado nuestros hábitos, ya sea en lo cotidiano o en lo laboral.
A comienzos del siglo XXI, y superados aparentemente los efectos de la industrialización, un nuevo mundo,
ahora “digital”, parece haber nacido: un nuevo mundo que se presenta con importantes transformaciones en
nuestros hábitos cotidianos y laborales. Un nuevo mundo, caracterizado por efectos de continuidad y rupturas,
de centrifugación y destrucción, en el que nuevas teorías híbridas –entre lo biológico y lo tecnológico, entre
lo cultural y lo técnico (Pardo, 2011)–, hacen su aparición bajo una estructura diferente, con nuevos logros
pero también con nuevas amenazas. Son eslabones de una larga cadena que pareciera necesitar de leyes
físico-matemáticas para explicar sus teorías; un nuevo modo de vida contemporáneo que ha generado entre
los individuos sentimientos encontrados que oscilan entre una excesiva confianza en que estos cambios contribuirán a mejorar las condiciones de vida de las generaciones futuras, y un temor desmesurado, frente a la
dependencia que estos sistemas nos generan.
Dentro de este contexto pluralista, nuestro imaginario se ha desarrollado enormemente hacia lugares impensados;
el arte, el diseño y la arquitectura misma no han quedado ajenos a estas circunstancias. En el campo específico del
diseño, nuevas tecnologías y tecno-ciencias ofrecen hoy al arquitecto la posibilidad de curvar, torcer, plegar, y deformar el espacio dentro de la pantalla de la computadora (Bustos, 2006, p. 5-51), con lo que desafía las concepciones
tradicionales del proyecto para posteriormente poder implementar estos cambios en la vida real.
Este libro, contiene cuatro cuestiones o ideas fundamentales que han delimitado a esta investigación.
El primero de estos, proyecto, es un término heredado del latín proiectus, y este, del verbo proicere, (pro,
‘hacia delante’; y iacere, ‘lanzar’), es decir “designio o pensamiento de ejecutar algo” (RAE, Asale, 2014),
mirando hacia adelante: es un plan, una guía, una intención o propósito para realizar algo o alcanzar determinado objetivo.
En el campo de la arquitectura, el concepto de proyecto hace alusión “…al dibujo más o menos detallado
mediante el cual se representa la planta, el corte y alzada, o bien de la obra que se quiere erigir conforme a
la intención de quien la va a ejecutar” (Quatremère De Quincy, 2007, pp. 218-220). En igual sentido, para el
arquitecto Jorge Sarquis, el vocablo proyecto presenta relación con la palabra “… ‘conjetura’ o hipótesis,
claramente indicada en la acción de proyectar, respecto de un funcionamiento futuro a verificar en la realidad”
(2004, p. 42), esto es, una vez que la obra ha sido ejecutada.
Con un origen muy antiguo, la idea de proyecto, tiene su aparición durante el Renacimiento “…se afianza en el
Iluminismo, se hace hegemónica y consciente a partir de las teorías de los primeros modernos y herramientas
de la experimentación con la primera Bauhaus” (Sarquis, 2004, pp. 41-42).
Como instrumento de progreso, el proyecto, se convierte “…en elemento fundamental para que la especie
humana complete el proceso que la instituye” (Doberti, 2008, p. 215): su carácter predictivo permite planificar
situaciones que toman como base las necesidades humanas. En su condición de mediador, se encuentra
entre el sujeto y el objeto. Considerado en todas sus modalidades, “…tiene el mismo rango, el mismo valor
identificatorio y primordial que tienen la Ciencia, el Arte y la Tecnología, [es decir] no puede subsumirse en
ninguna de las otras posiciones, ni es una mezcla o combinación de ellas” (Doberti, 2008, p. 215).
19
Introducción
El segundo término, morfogénesis, es utilizado en disciplinas tan disímiles como la cristalografía, el urbanismo
o el arte; sin embargo, su origen está en el campo de la biología y se refiere a aquellos dispositivos subyacentes que se relacionan con las transformaciones o cambios que se producen en el desarrollo de las células y
los tejidos (Cowin & Doty, 2007, p. 5 y ss.).Al igual que lo que sucedió con otras disciplinas, esta expresión fue
incorporada al campo del diseño. Pero fue complementada con la palabra digital, porque en este ámbito “…
se entiende como un conjunto de métodos que emplean los medios digitales no sólo como herramientas de
representación para la visualización, sino como herramientas generativas para la derivación de la forma y su
transformación” (Roudavski, 2009). Una relación indisoluble entre forma e idea; dos elementos que no pueden
separarse en la obra (Doberti, 2008, p. 215).
El tercer término, paradigma, proviene del latín paradigma y este del griego παρaδειγμα, que a su vez tiene
como raíz dos vocablos παρά (pará, ‘junto’) y δεῖγμα (deīgma, ‘ejemplo’) y se refiere a un modelo, un ejemplo
o patrón.
De acuerdo con la definición del diccionario de la Real Academia Española, un paradigma es una “Teoría cuyo
núcleo central se acepta sin cuestionar y que suministra la base y modelo para resolver problemas y avanzar
en el conocimiento; por ejemplo, en la ciencia, las leyes del movimiento y la gravitación de Newton o la teoría
de la evolución de Darwin” (RAE, Asale, 2014).
Para el filósofo estadounidense Thomas Kuhn, los paradigmas son “realizaciones científicas universalmente
reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad
científica” (1962, p. 150). En este sentido, según Kuhn, estaríamos, en nuestra disciplina, en presencia de una
“revolución científica”, donde la teoría existente referida a la arquitectura contemporánea, que encuentra sus
raíces en la arquitectura racionalista de principios del siglo XX, se halla imposibilitada de explicar muchos de
los fenómenos actuales; y, por lo tanto, se comienzan a observar excepciones o anomalías a dicha teoría: las
categorías previamente establecidas son abandonadas, y dan paso al nacimiento de un nuevo paradigma
(Kuhn, 1962, p. 150).
Finalmente, el cuarto concepto, es génesis, proviene del latín, genĕsis, y este del griego γένεσις génesis, cuyo
significado hace alusión al “origen o principio de algo”, a una “serie encadenada de hechos y de causas que
conducen a un resultado” (RAE, Asale, 2014).
20
Extrapolando estas cuestiones al campo específico de la arquitectura, este trabajo tratará de explicar cómo estos diferentes factores se “entrecruzan” y se transforman, desde un punto de vista “polisémico”, para considerar
la génesis de un nuevo modelo de paradigma, bajo un proceso de desarrollo, una serie de “… fragmentos que,
organizados y contrastados, intenta[rán] dar cuenta de una posible explicación, [para] construir un mapa, de
la situación actual” (Giménez, Miras, & Valentino, 2011, p. 23), mapa que, como señala Zaera Polo, “… es una
de las formas de producir conocimiento… Una cartografía no es sino un instrumento de polémica, siempre un
panorama personal, nunca una descripción de la verdad absoluta. Y en este sentido, hacer mapas es la única
manera de llegar a operar sobre un territorio” (1998, p. 308).
En consonancia con lo anterior, y bajo un enfoque analítico, este trabajo se enmarca entre los años 1988 y
2014: un recorte simplificado y acotado de la realidad, una mirada de entre las múltiples posibles.
Se trata de un período de 26 años que hace foco en los sucesos u obras desarrolladas en el marco de exposiciones internacionales de arquitectura que han ofrecido visiones en momentos específicos. Para este
análisis se toma como comienzo el año 1988, en consonancia con la exposición Deconstructivist Architecture,
realizada en el MoMA de Nueva York, y cierra en 2014, juntamente con la Bienal de Arquitectura de Venecia,
Fundamentals, una exposición que buscaba investigar el “…estado actual de la arquitectura, e imaginar su
futuro” (Quintal, 2014). Un análisis crítico de la arquitectura que en palabras de Rem Koolhaas, busca develar
las condiciones de desarrollo “…los talentos individuales, las amistades personales, trayectorias aleatorias y
Marcelo A. Fraile - Arquitectura biodigital
desarrollos tecnológicos, [de] las arquitecturas que antes eran específicas y locales [y que ahora] se han hecho intercambiables y globales” (2013).
Ahora bien, en este contexto, para Marina Waisman, la observación y el análisis de un tema contemporáneo,
presente, “…está referido al diario acontecer de la arquitectura; a la identificación de nuevas ideas, a la valoración e interpretación de nuevas obras o propuestas, al descubrimiento de nuevas tendencias, contribuye[ndo],
con su reflexión, a la toma de conciencia de situaciones” (1993, p. 30). Observadores de una realidad, que nos
posibilite “…descubrir en ella hechos arquitectónicos interesantes y llamar la atención del espectador sobre
ellos, suspendiendo momentáneamente el juicio, hasta tanto sea posible construir nuevos parámetros capaces de develar la estructura significativa de los nuevos fenómenos” (Waisman, 1993, p. 30).
Ya que como menciona Giorgio Agamben, “La contemporaneidad se inscribe en el presente y lo marca, ante
todo, como arcaico, y sólo quien percibe en lo más moderno y reciente los indicios y las marcas de lo arcaico
puede ser contemporáneo”, pues su origen no es solo un pasado cronológico, “…él es contemporáneo al devenir histórico y no cesa de actuar en éste, de la misma manera que el embrión sigue actuando en los tejidos
del organismo maduro y el niño en la vida psíquica del adulto”1.
Son colecciones que enfatizaron la importancia y características de ciertos edificios. Claro está, sería un
poco arriesgado pensar en escribir la historia de la arquitectura contemporánea desde el punto de vista de
las exposiciones. Sin embargo, lo cierto es que sería difícil poder explicar muchas de las características de
la arquitectura contemporánea sin hacer referencia a dichas muestras, que contribuyeron a reunir, divulgar, y
proclamar las nuevas tendencias en la arquitectura y su evolución.
Para algunos autores, las ideas propuestas en la exposición Deconstructivist Architecture, de 1988, constituyen el precedente histórico más inmediato de la arquitectura producida con herramientas digitales (Novak,
1991, p. 219).
Teóricos de la talla de Luis Fernández Galiano (1999, pp. 17-23), Lluís Ortega (2009, pp. 7-13) o Dennis Dollens
(2002, p. 22-29-31), entre otros, sitúan el comienzo de las anomalías entre 1989 y 1997. Lo cierto es que, con
la introducción, en 1989, de tecnología CAM2 en la obra de la Basílica de la Sagrada Familia de Barcelona
por los arquitectos Jordi Bonet y Antoni Caminal y con la inauguración del Museo Guggenheim de Bilbao en
1997, proyectado por el arquitecto canadiense Frank Ghery, se abriría una nueva etapa en el modo de hacer
arquitectura. Utilizando CATIA, un software de última generación creado por la empresa Dassault Systems
para el diseño y la fabricación de automóviles y aviones de caza, Frank Ghery se convertía en el primer arquitecto que, mediante la utilización de la tecnología digital, había hecho posible la construcción de un edificio
formalmente complejo.
Casi inmediatamente, los principales estudios de arquitectura del mundo incluían entre sus recursos un sinfín
de herramientas digitales de segunda generación como medios de expresión creativa y gestoras de diseño.
Sin embargo, no existe un momento exacto, ni un hecho puntual aislado, ni son hechos acumulativos los que
generaran esta crisis. En realidad, siguiendo el concepto de paradigma de Kuhn, se trata de “… un proceso
intrínsecamente revolucionario que rara vez lleva a cabo una sola persona y nunca de la noche a la mañana”
(1962, p. 65).
Basados en nuevos métodos de pensamiento, el “efecto Guggenheim” (2005, p. 5), como lo llamó Helio Piñón, produjo un impacto con la aparición de novedosas formas y contenidos. Una arquitectura con protocolos
codificados que se materializan a través de nuevas tecnologías, al igual que una arquitectura de cuatro dimensiones: un mundo virtual de formas reducidas a bits. “Las nuevas ciencias de la complejidad – fractales,
1. Agamben, Giorgio, Contemporaneidad: ¿Qué es lo contemporáneo? *Este texto, inédito en español, fue leído en el curso de Filosofía Teorética que se llevó a cabo en la Facultad de Artes y Diseño de Venecia entre 2006 y 2007. Traducción:
Verónica Nájera.
2. Computer Aided Manufacturing (CAM). Fabricación asistida por computadora.
21
Introducción
dinámicas no-lineales, la nueva cosmología, los sistemas auto-organizables” (Jencks, 2004) provocaron un
cambio de perspectiva en la arquitectura del nuevo milenio. Algo inconcebible hace apenas veinte años y que
ahora se encuentra al alcance de un clic de ratón.
Nada sería igual desde entonces. El edificio realizado por Gehry para el Museo Guggenheim marcó un antes
y un después en la arquitectura contemporánea, un punto de inflexión que cambió la concavidad de la curva:
el reemplazo del modelo analógico por el modelo digital, que conduciría indefectiblemente hacia el modelo
biológico digital.
Se iniciaba con esto un universo de nuevos planteos que desafían las concepciones tradicionales del diseño,
lo que dio lugar a una arquitectura con una expresión espacial germinal, fluida, en continuo proceso de cambio
y de transformación hasta su concreción física final. Se trata de una arquitectura de modelos digitales producidas a través de una amplia gama de herramientas tecnológicas: modelos paramétricos, algoritmos genéticos,
tecnologías CAD/CAM, que permiten optimizar los recursos de un modo lógico, más allá de la construcción
gráfica o del discurso exclusivamente conceptual. Esto revela el impacto que el empleo de los procesos digitales tiene en la práctica del arquitecto contemporáneo.
En ejemplos tales como en el proyecto de la Casa Embriológica (Proyecto 1999-2001) de Greg Lynn, o la Biblioteca Nacional Checa (Proyecto 2006) de Vincent Callebaut, se ha generado una búsqueda de resultados
cada vez más eficientes y funcionales a los estímulos del medio. La arquitectura se ha transformado en un
objeto de múltiples capas; y en el nuevo modo de proyectación, la materia se ha convertido en información
binaria, definida a través de representaciones tridimensionales.
Los diseñadores que trabajan con modelos digitales, generan protoformas, con distintos layers de información
superpuestas: las formas geométricas son creadas a través de procesos lógicos y matemáticos que tienden
a la abstracción y son interpretados a la luz de la razón (Montaner, 1997, p. 7), mediante tecnologías que las
transforman continuamente “en tiempo real”.
En este marco, emerge un nuevo modo de trabajo intelectual, bajo una mecánica de “… investigación colaborativa, [un] aprendizaje por equipos, [y] estudios comparativos [de] interacción entre disciplinas” (Rugarcía,
1996), que hace indispensable un razonamiento en conjunto, para generar nuevas ideas, resolver preguntas
complejas, explorar distintos temas y descubrir soluciones innovadoras que nos conducen hacia nuevos modos de ver, hacer y pensar.
22
Desde este punto de vista, la interdisciplina quizás sea una de las ideas que más ha hecho progresar a la ciencia en los últimos 50 años, al romper el propio aislamiento que la disciplina produce y permitir la articulación
de saberes tan disímiles como la matemática, la biología, la arquitectura o la ingeniería.
En este contexto, como resulta evidente, la arquitectura contemporánea3 no se encuentra exenta de nuevos
planteos: ve cuestionada su especificidad, adoptando teorías y saberes de diversos campos. Esto permite que
arquitectos, diseñadores, artistas, biólogos y genetistas se embarquen en una investigación sobre posibles
formas de concebir, interpretar, visualizar y materializar arquitectura.
3. A modo ampliatorio, para este trabajo, y dentro del marco teórico considerado, entendemos la arquitectura contemporánea como aquella arquitectura producida a nivel mundial a partir de la década de los años ochenta, que encuentra sus
raíces en la arquitectura racionalista de principios del siglo XX.
Una arquitectura que Hans Ibelings circunscribe a lo que llama “Supermodernismo”, una de cuyas características es el
modo a través del cual el usuario se relaciona con los lugares y el espacio: espacios vacíos controlados, espacios contenedores seguros encerrados dentro de una cáscara flexible. Una arquitectura pluralista, heterogénea, resultado de un
proceso generalizado de globalización, con importantes avances tecnológicos y un uso racional de nuevos materiales,
capaces de generar una nueva expresión estético-espacial.
Su condición de contemporánea, hace alusión también a lo que, para Giorgio Agamben, es su relación singular con el
propio tiempo: “… se adhiere a él pero, a la vez, toma distancia de éste; más específicamente, es esa relación con el
tiempo [al que adhiere] a través de un desfase y un anacronismo” Agamben, Giorgio, Contemporaneidad: ¿Qué es lo contemporáneo? *Este texto, inédito en español, fue leído en el curso de Filosofía Teorética que se llevó a cabo en la Facultad
de Artes y Diseño de Venecia entre 2006 y 2007. Traducción: Verónica Nájera.
Marcelo A. Fraile - Arquitectura biodigital
El resultado es un diseño automático de “continua diferenciación”4 que apela a distintos conocimientos para
llegar a una simbiosis disciplinar, pudiendo así generar formas geométricas complejas a partir de parámetros
capaces de modificarse y relacionarse en el tiempo.
Estamos en presencia de una nueva forma de concebir el proyecto arquitectónico, ahora bajo una mirada
denominada paramétrica, donde el proceso y la generación formal se encuentran teñidos por una búsqueda
de optimización, de acuerdo con modelos de perfomance (Leach, 2009, p. 32 y ss.). Algo que Thomas Kuhn
denomina el nacimiento de un “nuevo paradigma” (1962), que da lugar a un nuevo lenguaje arquitectónico que
abandona la estructura mecanicista para sumergirse y vincularse con la biología. Las formas son el resultado
de la interacción con el entorno, con el ambiente, al igual que en los seres vivos. Una arquitectura con “ciclo de
innovación adaptativa, reformando la disciplina y adaptándose al entorno arquitectónico” (Schumacher, 2008).
A partir de estos supuestos, y haciendo énfasis en los procesos de diseño basados en la morfogénesis digital,
este trabajo pretende analizar el proceso de ruptura del viejo paradigma y propone la hipótesis de que uno
nuevo, con base en lo “bio-lógico” y lo “tecno-lógico” está surgiendo; un nuevo paradigma que caracteriza el
modo de comprender la arquitectura. Este presupuesto aún hoy, tal como lo señala James Stelle ( 2001, p. 5
y ss.), no tiene estudios profundos y consistentes. Es por esto, que el trabajo se propone, a través del estudio
de ciertos casos, relevar el peso de lo biológico y de lo digital en la práctica del arquitecto contemporáneo,
tema de creciente interés y de aproximaciones que parecieran inagotables.
Dentro de la situación contemporánea, donde los límites disciplinares parecieran ser difusos y los cambios
globales profundos, algunos afirman que la morfogénesis digital es la nueva vanguardia arquitectónica; otros,
que es una moda formalista pasajera que en muy poco tiempo será olvidada. Hasta qué punto constituye dicho
marco un nuevo paradigma es aún un tema sometido a debate. ¿“Revolución científica” o “anomalía”? (Ortega
Calvo, 2004, p. 5 y ss.). Esta dicotomía presenta un campo abierto que será objeto de esta investigación cuyos
límites y consecuencias son impredecibles.
23
4. La autoría de este slogan se debe a Greg Lynn y Jeff Kipnis. Ver Lynn, G. (1999), Animate Form, New York: Princeton
Architectural Press, pp. 10 y ss.
Marcelo A. Fraile - Arquitectura biodigital
UN ACERCAMIENTO AL PROBLEMA
“La Arquitectura del futuro será blanda y peluda” . Salvador Dalí (Estévez, 2008).
En una primera aproximación sobre el tema, un lugar común en muchos de los textos que abordan el fenómeno de la digitalización en la arquitectura, y más específicamente el de la morfogénesis digital, es el uso de la
palabra “paradigma”.
Pese a ello, y aunque forma parte de nuestro lenguaje cotidiano, muchas veces, su definición aparece vaga
e imprecisa.
Para el lingüista suizo Ferdinand de Saussure1, un paradigma, “…es el conjunto formado por una palabra y
todas las que pueden aparecer en su lugar en un contexto (sintagma) determinado” (2005). En tanto que Egon
Cuba e Yvonna Lincoln, en su artículo “Paradigmas en competencia en la investigación cualitativa” (2002),
definen al paradigma como: “… una serie de creencias básicas (o una metafísica) que tiene que ver con los
principios últimos o primeros. Representa una visión del mundo que define, para quien la sustenta, la naturaleza del ‘mundo’, el lugar del individuo en él y la extensión de las posibles relaciones con ese mundo y sus
partes” (2002, pp. 113-145).
Otra visión acerca del concepto de paradigma es la propuesta por Edgar Morin, que lo define “… como un
principio de distinción, relaciones-oposiciones fundamentales entre algunas nociones matrices que generan y
controlan el pensamiento, es decir, la constitución de teorías y la producción de los discursos de los miembros
de una comunidad científica determinada” (1982, p. 23).
De un modo análogo, para Cook y Reichardt, las funciones de un paradigma son servir de guía para los profesionales de una disciplina, indicando cuáles son los problemas y las cuestiones importantes con los que
esta se enfrenta (1986, p. 5 y ss.). En este sentido, para la doctora Marta Zátonyi, el paradigma “no es un
fenómeno concreto sino una abstracción” (2007, pp. 21-24), que solo puede ser aprehendido a través de sus
tres componentes fundamentales: la edificación cognoscitiva, el sistema axiológico y el universo simbólico. El
primero, la edificación cognitiva, hace referencia “… a todo lo que conocemos y sabemos. Desde los saberes
más básicos… hasta los académicos, complejos y renovadores”. Cada generación, como heredera de los conocimientos de humanidades anteriores, irá ligando estos saberes, modificando algunos, olvidando otros, entretejiendo una sólida red “… para contener al sujeto como parte de un contexto donde puede vislumbrar el por
qué y el para qué de su existencia”. El segundo es el sistema axiológico y permite establecer, a través de una
rigurosa estructura de valores, lo que vale y lo que no “… en el ámbito económico y cultural, en lo simbólico
y en los horizontes morales y éticos”. Finalmente, el tercer punto se corresponde con el universo simbólico: es
“… el que da cuenta de los saberes y valores, y gracias al cual pueden ser enseñables y comunicables”. Estos
tres elementos se integran y entrelazan en una red dinámica y compleja “… de tal manera que resulta ilusorio
pensar en uno sin la presencia… [de] los otros dos” (Zátonyi, 2007, pp. 21-24).
Finalmente, para el filósofo estadounidense Thomas Kuhn (1922-1996), como ya vimos, los paradigmas son
“realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de
problemas y soluciones a una comunidad científica” (1962, p. 51). Y si bien este modelo aplicado a la arquitectura es cuestionable “…pues no se trata de una actividad científica y, por tanto, … no parece extrapolable de
una forma literal” (Ortega & Zaera-Polo, 2009, p. 5 y ss.), estas afirmaciones, entendidas desde un punto metafórico y no analítico, “no menoscaban la importancia del cambio, sino más bien todo lo contrario, lo plantea en
sus justos términos… cambios sustanciales en… los que se ha venido sustentando la práctica arquitectónica”
(Ortega & Zaera-Polo, 2009, p. 5 y ss.).
1. Ferdinand de Saussure, (1857-1913). De origen suizo, se lo conoce como el padre de la lingüística moderna.
25
Parte I. Presentación del problema
En este sentido y en el marco de esta tesis, la idea de paradigma elaborado por Kuhn parece un concepto
operativo apropiado, una herramienta útil para explicar nuestra visión sobre la situación en que se halla actualmente la arquitectura contemporánea: un estado de revolución científica. Esto presupone que las teorías
existentes en las que se sustentaba el antiguo paradigma contemporáneo –que encontraba sus raíces en
la arquitectura racionalista de principios del siglo
XX–,
se hallan ahora imposibilitadas de explicar muchos de
los fenómenos actuales; y, por tanto, se comienzan a observar excepciones o anomalías a dichas teorías. Se
produce un efecto de crisis, donde las categorías previamente establecidas son abandonadas, y se da paso
al nacimiento de una nueva situación que traerá nuevas teorías que la sustentarán.
Y, como todo producto histórico, como objeto cultural, la arquitectura no puede permanecer ajena a los cambios o a las transformaciones que se producen en su propio ámbito o en la sociedad. Actualmente, la teoría y la
práctica de la arquitectura aparecen invadidas por el pensamiento de otros campos y, a su vez, estas mismas
se han permitido apropiarse de pensamientos diversos. Se ha generado una nueva relación entre ciencia,
naturaleza y arquitectura, planteada en un ámbito en donde las nociones tradicionales de estos conceptos se
han modificado. Ha surgido un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño, a través del uso inteligente de las cualidades de los medios electrónicos aplicados a la genética
y la biología.
Dominada en gran parte por la informática, se ha detectado en la disciplina un desplazamiento significativo
desde “…preocupaciones puramente visuales hacia una arquitectura que encuentra su justificación en su performance (eficiencia)” (Leach, 2009, p. 32 y ss.). Para el físico vienés Fritjof Capra (1939), estamos viviendo
lo que él llama “el Punto Crucial” (1983, pp. 27-38), que se caracteriza por el surgimiento de una nueva visión
de la ciencia que se resiste a encajar en el esquema newtoniano, excesivamente mecanicista del siglo XX,
heredado de las ciencias clásicas. Esta nueva concepción no descarta la estructurada geometría euclídea,
pero se siente más atraída por un nuevo modo de observar la naturaleza, algo que quizás nos recuerda el
manifiesto de Benoît Mandelbrot de 19772. Es decir, una aproximación más abstracta de la que caracteriza a
la geometría convencional de tradición euclidiana, y hace referencia al impacto de la geometría fractal en la
concepción e interpretación de los objetos que se encuentran en la naturaleza. O lo que Charles Jencks (1939)
llama “las nuevas ciencias de la complejidad” (2006, pp. 2-11), que trata de las interacciones entre diversas
teorías científicas, apoyadas en el carácter mimético de la naturaleza y las leyes de las nuevas ciencias, como
los fractales, los procesos emergentes, la autoorganización y la similaridad.
26
Para el arquitecto Jorge Sarquis (1940), esta situación, puede ser asociada con la idea de acontecimiento, la
“…posibilidad [de] instalar una verdad y constituir un sujeto, para lo cual la arquitectura –como saber particular del campo del arte– posee tal condición genérica” (Guba & Lincoln, 2002, p. 43). Desde este punto de
vista teórico, “… la obra de Ghery en Bilbao sería un buen ejemplo, ya que la obra y lo que allí ocurre se han
transformado en un acontecimiento que escapa a la comprensión de la categoría tradicional de la arquitectura”
(Sarquis, 2004, p. 43). Esto es lo que Kuhn llama “anomalías”, y que conduce a lo que para Neil Leach sería
el surgimiento de “un nuevo paradigma”, o lo que para De Landa es el nacimiento de un “nuevo materialismo”
(Leach, 2009, p. 32 y ss.) que utiliza complejas herramientas capaces de reproducir patrones formales en tres
dimensiones, lo que crea espacios arquitectónicos habitables. Espacios que son entendidos por Kolarevic
como “espacios geométricos no euclidianos, sistemas cinéticos y dinámicos” (2003, p. 3), formas innovadoras,
con características de eficiencia y funcionalidad, con capacidad de respuesta a diferentes estímulos.
En este marco, la revolución destruye la continuidad del antiguo paradigma, y acentúa el nacimiento de una
nueva generación de diseñadores, jóvenes investigadores, abiertos a los cambios, capaces de producir un
nuevo vocabulario de nuevas herramientas. Son los llamados “metadiseñadores” (Pinochet, 2009, p. 37 y ss.)
que, con un enfoque interdisciplinario, tratarán de engendrar nuevas teorías para resolver las nuevas anomalías, en una búsqueda incesante de mayor eficiencia, optimización de resultados, disolución de las fronteras
de la especificidad, que representan una renovación y ampliación de sus posibilidades.
2. Mandelbrot, B. (1997). The Fractal Geometry of Nature, Barcelona: Tusquets Editores. [1.era edic. 1975], pp. 15 y ss.
Marcelo A. Fraile - Arquitectura biodigital
Frente a estos cambios, el diseño ha sufrido grandes transformaciones en el nuevo milenio. Su capacidad de
innovación, a través del uso de nuevas herramientas digitales, ha producido la evolución del trabajo de los
diseñadores hacia derroteros irreconocibles.
A esta nueva generación de jóvenes diseñadores, el psicólogo estadounidense Richard Farson (1926-2017)
los denominó “metadiseñadores”. El prefijo meta es utilizado, como ‘sobre’, con un sentido superior. El metadiseño se encuentra en un rango superador que el del diseño tradicional; sus protagonistas han evolucionado desde meros creadores a diligentes investigadores; reconocen el valor de los sistemas digitales, “…
como una fuerza tecnológica autónoma, imposible de detener y que nos incluye a todos sin excepción”.
Para el arquitecto chileno Diego Pinochet (1981), su producción “…no se limita solamente a una forma determinada, sino que pasan a diseñar sistemas, herramientas y el proceso integral del diseño, mediante el cual
puede producir MODELOS DE INFORMACIÓN, que incorporan la variable constructiva desde el inicio del
proceso” hasta la obtención de resultados.
A partir de un pensamiento analítico, los metadiseñadores se transforman en planificadores, adoptan y se
apropian de una multiplicidad de herramientas tecnológico-digitales que integran otras disciplinas como la
ingeniería informática, pasando por la biología e incluso el arte.
Contraria a la excesiva especialización de los diseñadores, los metadiseñadores conciben el diseño integrado
en un sistema, que da soporte a la inteligencia colectiva y posibilita el trabajo en equipo para generar nuevas
perspectivas en el diseño. Una nueva concepción de la disciplina que sobrepasa sus límites tradicionales, que
indaga en sus bordes; un pensar desde fuera, que fortalece la creatividad del diseñador y permite explorar
múltiples oportunidades.
Esta nueva gama de herramientas tecnológico-digitales permite, según la doctora Elizabeth Sanders, una
etapa superior, “…donde la intención es crear algo que no se conoce de antemano”, explorar nuevas formas
inspiradas en la naturaleza, que buscan dar respuestas adecuadas a las características del contexto.
El periodista Gene Youngblood (1942) considera el metadiseño como el nuevo modo en que las vanguardias
se expresan. Es lo que el arquitecto Branco Kolarevic denomina master builder (maestro constructor), en referencia al nuevo modo de producción arquitectónica que utiliza las herramientas CAD/CAM para desarrollar
sus obras.
En el seno de esta discusión, no es casual que el concepto de morfogénesis digital resuene con fuerza en
el camino hacia el desarrollo de lo que pareciera ser este posible cambio de paradigma. Su vigencia surge
de líneas concretas de investigación, de la mano de autores tan renombrados como, Greg Lynn, Karl S. Chu,
Dennis Dollens o Bernard Cache. En sus obras y escritos, se detecta “…una manera de pensar sobre forma y
estructura derivados [del uso] de la tecnología y [de los] organismos vivos” (Dollens, 2003, p. 82).
A lo largo de su historia, el hombre siempre intentó asemejar los procesos de diseño a los fenómenos naturales, dependiendo su resolución de las particularidades de cada época. Hoy, gracias a los avances en materia de ciencias biológicas y digitales, se han comenzado a entender estos fenómenos desde sus procesos
generativos, para poder después elaborar modelos matemáticos capaces de replicar la complejidad de sus
planteos: “Un progreso asumible desde el conocimiento de las lógicas naturales, la experimentación de los
crecimientos y formas de orden orgánicos” (Pérez Arnal, 2003, p. 56).
En este sentido, la morfogénesis digital se nos presenta como un procedimiento para una arquitectura de
avanzada, “… en superación al ecologismo… en superación al uso de ordenadores como mero sustituto del
dibujo manual; …un nuevo proyectar ecológico-medioambiental y un nuevo proyectar cibernético-digital” (Estévez, 2003, p. 4).
27
Parte I. Presentación del problema
En las últimas publicaciones sobre el tema, se pueden encontrar tres posiciones muy radicales al respecto.
Por un lado, algunos diseñadores como Peter Eisenman, Greg Lynn, John Frazer o Iwamotto Scott, con una
mirada progresista, entienden la tecnología como un nuevo marco para pensar y hacer arquitectura. Una
arquitectura algorítmica, exploratoria, que postula las grandes ventajas que presenta su utilización para organizar estructuras complejas, dinámicas no uniformes (Weinstock, 2006, pp. 34-41), que posibilitan ajustar el
modelo “… sin perturbarlo y aumentando su flexibilidad” (Roudavski, 2009, pp. 345-374), con un alto grado de
adaptación al medio.
Por otro lado, no todos aceptan estas valoraciones positivas sobre este planteo. Por el contrario, diseñadores
más conservadores miran estos cambios “…con indiferencia… aceptando el nuevo instrumento, …como una
nueva prótesis para el arquitecto” (Ortega Calvo, 2004, p. 5 y ss.). Sus críticas apuntan a “...la utilización superficial de conceptos tomados de otras disciplinas”(Hagan, 2008, p. 25); a lo autorreferencial de sus planteos,
como “…un compromiso frívolo… que da por resultado ‘una creatividad falsa’”(Lawson, 1999, pp. 174-179),
donde la analogía con la naturaleza es solo a nivel de apariencia. El paradigma anterior continúa, solo estamos ante una fugaz anomalía que pronto será resuelta por la teoría existente.
A este debate se suma, en los últimos tiempos, una segunda generación de diseñadores de la talla de Dennis
Dollens, Alberto Estévez o Nery Oxman, con una mirada que va más allá de la utilización de la tecnología
digital como una herramienta generativa de formas con base en la naturaleza. Tomando prestada la teoría
de la evolución por medio de la selección natural de Darwin (1871), estos “…entiende[n] al diseño y [a la]
producción digital de arquitectura como proceso[s] genético[s] ,…elementos vivos, materiales constructivos y
espacios vivos útiles para la arquitectura” (Estévez, 2003, pp. 4-17). Las superficies “crecen” por medio de un
lenguaje genético que considera el muro como una membrana celular en un proceso continuo de crecimiento
selectivo con un alto grado de adaptabilidad individual, capaz de automantenerse, de autorreproducirse y,
potencialmente, de evolucionar. Esto sugiere un nuevo paradigma, capaz de reemplazar al paradigma anterior
y de elaborar su propia teoría: “…una monadología genética de la arquitectura, que utiliza la simbiogénesis
como el modo de proceder para la construcción de mundos posibles” (Chu, 2005, p. 142).
El paradigma heredado de las ciencias clásicas ha impuesto una mirada estática y determinista que contrasta
drásticamente con la complejidad que propone este nuevo enfoque del mundo contemporáneo.
28
¿Utopía o realidad?, ¿crisis del paradigma o anomalía transitoria? En este complejo panorama, la
morfogénesis digital se presenta, para unos, como una pieza clave que podría liberarnos de las concepciones
clásicas del diseño; para otros, como una moda pasajera que se olvidará en diez años, cuando otra nueva
haga su aparición.
Por el momento, todas estas ideas no han cuajado en una teoría unificadora que ratifique o rectifique la cuestión. Pero todavía seguimos teniendo mucho que indagar.
Marcelo A. Fraile - Arquitectura biodigital
ESTABLECIENDO EL MARCO TEÓRICO DE ACCIÓN
“La revolución epistemológica, que aportó una paulatina construcción de un método científico y la apertura
del máximo horizonte del racionalismo, había arrancado con Leonardo da Vinci, Copérnico, Giordano Bruno y
Kepler, había tenido sus aportaciones trascendentales en Galileo Galilei y Francis Bacon, culminando con la
interpretación y síntesis de Isaac Newton a finales de este siglo XVII” . (Montaner, 1997, p. 54).
Durante la mayor parte del siglo XX y principios del siglo XXI, se desarrolló un importante debate entre los principales críticos e historiadores de la arquitectura sobre el estado actual de la disciplina arquitectónica.
En un claro enfrentamiento contra la arquitectura moderna, se “…reclama la reescritura de una historia reciente construida de manera demasiado homogénea, mecánica y lineal” (Montaner, 1997, p. 8).
Neal Leach, por su parte, “…propone ‘repensar la arquitectura’ por fuera del marco de los discursos arquitectónicos tradicionales, a través de una selección de textos escritos exclusivamente por intelectuales ajenos al
campo de la disciplina” (Giménez, Mirás, & Valentino, 2011, p. 28).
Se hace evidente que vivimos un cambio de época, de reglas. Profundas transformaciones a nivel global se
han producido en los últimos tiempos. Para el profesor Ilya Prigogine1, “estamos en un momento apasionante
de la historia, tal vez en un punto decisivo de giro… que operará cambios fundamentales sobre los parámetros
y conceptos de la arquitectura tal cual actualmente es reconocida y definida” (Ferguson & de Casso, 1994, p.
25).
En este sentido, la morfogénesis digital ha generado una nueva relación entre ciencia, naturaleza y arquitectura,
planteada en un ámbito donde las nociones tradicionales de estos conceptos se han modificado sustancialmente. Se ha dado paso a un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el
diseño, a un uso inteligente de las cualidades de los medios electrónicos aplicados a la genética y la biología.
Esto ha permitido nuevas exploraciones en el campo del proyecto, “… donde los elementos complejos emergen
de la combinación de elementos más sencillos [y] se constata que tienen frecuentemente como características
ventajosas, la adaptabilidad y la capacidad generativa que les permiten evolucionar” (Costa, 2009, p. 76).
Para su análisis, este trabajo, pone en paralelo tres modelos o estructuras que servirán como marco para la
investigación futura: el primero de estos se encuentra asociado al concepto de paradigma, desarrollado por
Thomas Kuhn en su libro La estructura de las revoluciones científicas (1962)2, idea fundamental que va a
enmarcar y guiar esta investigación; el segundo es el concepto de hipótesis de raíz, utilizado por Stephen
Pepper en su libro World Hyopotheses: A Study in Evidence (1942), una serie de modelos básicos, o “hipótesis
del mundo” aplicados en la observación de los fenómenos del mundo occidental; y finalmente, el concepto de
desarrollo biológico temporal del mundo, utilizado por Alberto Estévez, en su libro Arquitectura Genética II:
Medios digitales y formas orgánicas (2005, pp. 18-80).
Para ello, deberemos extrapolar algunos de estos conceptos al campo de la arquitectura, buscando esclarecer
las características de un entrecruzamiento polisémico capaz de generar un nuevo modelo, susceptible de explicar la realidad existente. Este permitirá definir y exponer una arquitectura que es el resultado de un proceso
lógico donde la morfogénesis digital ha abierto un abanico de nuevas posibilidades en el proyecto.
1. Ilya Prigogine. (1917-2003), físico, químico y profesor, de origen ruso. Recibió el Premio Nobel de Química en 1977 por
sus investigaciones desarrolladas sobre el concepto de “estructuras disipativas”.
2. Thomas Samuel Kuhn, historiador y filósofo de la ciencia, nació en la ciudad de Ohio (Cincinnati, EE.UU.), el 18 de
julio de 1922. Comenzó sus estudios de Física en la Universidad de Harvard, obtuvo el Bachelor en 1943, el Master en
1946, y el Doctorado en 1949. A partir de sus estudios, sus investigaciones se fueron circunscribiendo hacia el área de la
Historia de la ciencia, permaneció en Harvard donde fue profesor ayudante de Historia de la Ciencia hasta 1956. En 1961,
fue contratado por la Universidad de Berkeley, donde ocuparía la Cátedra de Historia de la Ciencia hasta 1964. Luego se
desempeñaría en el mismo puesto en la Universidad de Princenton hasta 1979, año en que se instal en Boston y ocupa la
Cátedra de Filosofía e Historia de la Ciencia del Massachusetts Institute of Technology. Falleció el 17 de junio de 1996 en
su casa de Cambridge, Massachusetts.
29
Parte I. Presentación del problema
Una aproximación histórica al término Paradigma
“No es sorprendente que la mayoría de las personas a quienes se les pida que definan el término paradigma
sean incapaces de ofrecer una expresión clara de su significado”. E. G. Guba (González, 2005).
En el estudio del concepto de paradigma, algunos de los elementos fundamentales que encontramos con
mayor frecuencia se relacionan con el mundo de la antigua Grecia, y en la figura de dos de sus filósofos más
reconocidos: el primero de ellos, Platón, quien en el Timeo desarrolla el concepto de paradigma en torno a una
“…ejemplificación del modelo o la regla” (Morin & Sánchez, 1992, p. 216). Para Platón, la creación del universo
se produce a través de un “demiurgo” o artesano, el cual toma un modelo “sensible” preexistente sobre el cual
el ejecutará su obra. En el sentido estricto, este demiurgo estaría copiando el modelo, obteniendo una copia
de la copia del modelo único, eterno, perfecto e inmodificable al cual ha recurrido, a través de la razón y el
pensamiento (Velásquez, 2001, pp. 9-21).
En el libro VI de La República, Platón amplía los conceptos anteriores al desarrollar la analogía de la línea
y establecer una articulación entre “… el orden inteligible y el sensible [que hacen] posible el conocimiento”
(Agamben, Costa, & Ruvituso, 2010, p. 32).
Platón explica los grados del ser y del conocer el mundo a través de su división en dos partes: por un lado, la episteme o ciencia (el mundo inteligible); y por el otro, la doxa u opiniones (el mundo sensible). El mundo superior de
la episteme es el trascendental, independiente e inmutable mundo de las ideas, en contraposición, el mundo de
la doxa es el mundo imperfecto, intrascendente, en constante cambio, una copia imperfecta del mundo superior.
En este dualismo entre mundos, se encuentra el alma humana, que es aquello que nos conecta con el mundo
inteligible. El alma, según Platón, proviene del mundo de las ideas, pero al migrar al mundo sensible pasa
por el río del olvido donde “olvida” todo su conocimiento del mundo ideal. Posteriormente, en la doxa, el alma
recupera sus conocimientos, una reminiscencia de lo perdido pero que nunca llega a la belleza de las ideas,
solo el arte nos acerca brevemente a su belleza (Zátonyi, 2007, p. 115).
Por su parte, su discípulo Aristóteles, en su Retórica, desarrolla el concepto de persuasión, a partir de dos
30
elementos fundamentales: el entimema y el paradigma, ambos precisados de acuerdo con su relación con la
dialéctica. Para Aristóteles, el entimema, como el silogismo, parte de premisas universales o generales para
así llegar a conclusiones particulares diferentes de las premisas iniciales; en tanto que el paradigma, es uno
de los principales elementos de la inducción, “… es el argumento que, fundado en un ejemplo, está destinado
a ser generalizado” (Morin & Sánchez, 1992, p. 216), sirve para deducir una regla general a partir de distintos
casos particulares. En otras palabras: “… genera un nexo persuasivo mediante una relación de semejanza,
que, siendo extrínseca al silogismo propiamente dicho, funciona en su interior como una regla” (Iglesias Zoido,
1997, pp. 109-122). Un razonamiento deductivo, que intenta probar la pertenencia del término menor al término
mayor: “…’si todos los hombres son mortales’ y ‘Sócrates es hombre’; entonces, ‘Sócrates es mortal’” (Castro,
2015, pp. 53-75).
El paradigma, en Aristóteles, “… no funciona como una parte respecto del todo, ni como un todo respecto de
la parte, sino como una parte respecto de la parte, puesto que ambos se encuentran bajo lo mismo, pero uno
es más conocido que el otro” (Agamben et al., 2010, p. 24), siendo el paradigma una situación, “… que va de lo
particular a lo particular” (2010, p. 24).
En igual sentido, el paradigma Aristotélico no es contrario al entimema, sino que puede convertirse en un elemento básico de este. De esta forma, un paradigma podría ser considerado un entimema con dos fases, una
inductiva y otra deductiva.
Marcelo A. Fraile - Arquitectura biodigital
Tomemos un ejemplo:
“suponiendo que uno de los extremos sea ‘ser longevo’ y el otro, ‘los individuos longevos como el hombre, el caballo, la mula’ y el término medio, ‘estar desprovisto de hiel’; entonces, puedo demostrar que el ‘ser longevo’ pertenece al ‘estar desprovisto de hiel’, mostrando que los individuos longevos carecen de hiel” (Castro, 2015, pp. 53-75).
En definitiva, tanto Platón como Aristóteles entienden el paradigma clásico como algo que existe de un modo
positivo, enfocado en el conocimiento, que “… aun cuando es un fenómeno singular sensible, contiene de
algún modo el ‘eidos’, la forma misma que se trata de definir” (Agamben et al., 2010, pp. 4-11).
En cambio, para el filósofo alemán, Immanuel Kant (1724-1804), el concepto de paradigma es bastante complejo, su enunciación “… presupone en realidad la imposibilidad de la regla; pero si esta falta o es informulable,
¿de dónde podrá el ejemplo extraer su valor de prueba? ¿Y cómo es posible proporcionar ejemplos de una
regla imposible de asignar?”, por consiguiente, “… la mera exhibición del caso paradigmático la que constituye
una regla, que, como tal, no puede ser ni aplicada ni enunciada”, transforma a cada singularidad en “… ejemplar de una regla general que nunca puede formularse a priori” (Agamben et al., 2010, pp. 4-11).
En 1935 el filósofo austríaco Karl Popper (1902-1994), uno de los personajes más influyentes y controvertidos
del Círculo de Viena, publicaría La lógica de la investigación científica, un fuerte giro en la forma de entender
las concepciones filosóficas del siglo XX.
Popper había estudiado filosofía en la Universidad de Viena y había desarrollado en su tesis el concepto de
falsacionismo, un método científico que considera que las mejores teorías científicas son aquellas que han
resistido más intentos por probar que estas son falsas: las teorías mueren cuando se descubre una nueva
teoría que falsifica a la anterior, ese sería el motor del progreso científico.
En su razonamiento, considera que por más probada que esté una teoría, nunca podremos estar seguros de
que la próxima observación no será incompatible. A partir de esto, establece una diferenciación entre lo que es
ciencia y lo que no lo es, ya que en el caso de la primera, los enunciados pueden ser refutados, si no es posible refutarla, dicha teoría queda corroborada y puede ser aceptada provisionalmente, pero nunca verificada.
El profesor Ingvar Johansson (1943), en A Critique of Karl Popper’s Methodology (1978a, pp. 201-204), publicado en 1978, define nueve de las reglas más importantes de la teoría de Popper, estas son:
1. La naturaleza científica de una teoría se determina por su susceptibilidad a la falsación.
2. Una nueva teoría, para que sea aceptada, deberá siempre contener mayor contenido empírico que
sus predecesoras.
3. Una nueva teoría aceptada debería ser capaz de explicar todos los éxitos pasados de sus predecesoras.
4. Las teorías deberían siempre ser contrastadas tan rigurosamente como sea posible.
5. Una teoría que ha sido experimentalmente refutada debería ser rechazada.
6. Cualquier teoría refutada no debería retomarse en una etapa posterior.
7. Una teoría inconsistente es inaceptable.
8. Deberíamos minimizar el número de axiomas por emplear.
9. Cualquier nueva teoría debería ser contrastable independientemente (Johansson, 1978b).
Tiempo después, en el año 2008, el filósofo italiano Giorgio Agamben publica Signatura rerum, donde en el
capítulo primero aborda a través de un recorrido histórico, no cronológico, el concepto de paradigma, a través
del pensamiento de Foucault, en claro contraste con las teorías de Thomas Kuhn.
31
Parte I. Presentación del problema
Para Foucault, el concepto de paradigma, al cual prefiere llamar ‘figura epistemológica’ o ‘umbral de epistemología’, designa “… los objetos de sus investigaciones –para distinguirlos de los de las disciplinas históricas–”
(Agamben et al., 2010, pp. 4-11). En este sentido, según Dreyfus y Rabinow, el método de Foucault “consiste
en describir los discursos como articulaciones históricas de un paradigma, y su modo de concebir el análisis
implica que aísla y describe los paradigmas sociales y sus aplicaciones concretas”. Sin embargo, para Agamben, Michel Foucault, pese a mencionar la expresión paradigma, nunca llega a definirla con precisión, incluso
en reiteradas ocasiones se distancia de la noción de este.
En este sentido, el paradigma foucaultiano, “… es un caso singular que se aísla del contexto del que forma
parte sólo en la medida en que, exhibiendo su propia singularidad, vuelve inteligible un nuevo conjunto, cuya
homogeneidad él mismo debe constituir”, al transformarse en dos cosas al mismo tiempo: “…no sólo ejemplar
y modelo, que impone la constitución de una ciencia normal, sino también y sobre todo ‘exemplum’, que permite reunir enunciados y prácticas discursivas en un nuevo conjunto inteligible y en un nuevo contexto problemático” (Agamben et al., 2010, pp. 4-11).
Agamben establece seis características que definen el paradigma: en primer lugar, el paradigma no constituye
una forma de conocimiento “… ni inductiva ni deductiva, sino analógica, que se mueve de la singularidad a la
singularidad”; en segundo lugar, las nociones de paradigma neutralizan su “…lógica dicotómica por un modelo
analógico bipolar”; en tercer lugar, el caso paradigmático “…deviene tal aturdiendo y, a la vez, exponiendo su
pertenencia al conjunto, de modo que ya no es posible separar en él ejemplaridad y singularidad”; en cuarto
lugar, el conjunto al cual se refiere el paradigma “…permanece inmanente a ellos”; en quinto lugar, no existe
en el paradigma un origen mítico, “…todo fenómeno es el origen, toda imagen es arcaica”; finalmente, en sexto
lugar, la historicidad del paradigma “…no está en la diacronía ni en la sincronía, sino en el cruce entre ellas”
(2010, pp. 4-11).
Kuhn y la Teoría de los Paradigmas
El Concepto de Paradigma
“… lo que antes de una revolución eran patos en el mundo del científico, son conejos después de ella” . (Kuhn,
1962, p. 213).
32
En su libro la Estructura de las Revoluciones Científicas, publicado 1962, Thomas Kuhn desarrolla, desde su
teoría, fuertes cuestionamientos tanto a la epistemología del empirismo lógico como al falsacionismo de Popper.
Estas teorías se basaban fundamentalmente en las tradiciones formalistas e historicistas que habían dominado
la primera mitad del siglo pasado: personajes como Hanson, Lakatos, Feyerabend –junto con el mismo Kuhn–,
formaron parte del movimiento que se denominó “filosofía histórica de la ciencia”, y desde distintas ópticas reflejaban “…el malestar frente a los límites del empirismo lógico y del racionalismo crítico” (Cortassa, 2013, pp. 1-13),
que ejercía una importante influencia en el desarrollo de la filosofía de la ciencia.
El positivismo lógico interpretaba el progreso de la ciencia como un hecho lógico, “…la investigación científica
tenía un desenvolvimiento en gran medida acumulativo; así, cuando una teoría más amplia y más precisa reemplazaba a otra, los éxitos que se habían alcanzado no se abandonaban, sino que se incorporaban de algún
modo a la nueva teoría” (Caldas Caldas, 2008, p. 12), de este modo las teorías probadas quedaban inmunes
a los cambios posteriores.
Sin embargo, a comienzos de la década de 1960, el empirismo lógico se vio enfrentado a los trabajos de Toulmin, Hanson, Feyerabend y Kuhn. Muchos eran los puntos que este nuevo grupo no compartía con la teoría
precedente: desde el rechazo ante el análisis lógico como metodología para examinar el conocimiento científico, la dicotomía analítico-sintética y, una de las más importantes, la negación de una base empírica neutral:
Marcelo A. Fraile - Arquitectura biodigital
“…se dejó de lado el papel prioritario de la lógica para acentuar la importancia de los factores sociológicos e
históricos para el desarrollo de la ciencia” (Caldas Caldas, 2008, p. 12).
En efecto, en sus estudios sobre la historia de la ciencia, Kuhn había detectado un fuerte contraste entre dos
concepciones de la ciencia: por un lado, se encontraba una concepción denominada formalista, que entendía
la ciencia como una actividad racional, definida fundamentalmente por el Círculo de Viena; y por el otro, una
concepción denominada “historicista”, que correspondía con una ciencia entendida como una actividad concreta, definida por su hacer a través de los siglos y que presentaba en cada época peculiaridades y características propias. Sin embargo, debido a reformulaciones teóricas, durante la década del 90, Kuhn se apartaría
de estas concepciones filosóficas.
Pero regresemos a la Estructura de las Revoluciones Científicas, en este libro Kuhn desarrolla el concepto de
paradigma. Para el filósofo estadounidense, el paradigma puede ser entendido como aquellos “…logros científicos universalmente aceptados que durante algún tiempo suministran modelos de problemas y soluciones a
una comunidad de profesionales” (1962, p. 50). Es una forma de percepción y explicación del mundo, “…que
constituye los modelos para la investigación científica” (Castano Carreño, 2009, pp. 33-60) y puede ser aplicado “… a todo aquello que esté sujeto al consenso de una determinada comunidad científica” (2009, pp. 33-60).
Para el físico investigador, la ciencia puede explicarse a través de dos etapas. La primera, denominada “ciencia
normal”, se caracteriza por una búsqueda científica que intenta dilucidar las respuestas a los problemas producidos dentro de un determinado marco teórico. Este ha sido establecido por la comunidad científica y está en
relación con el paradigma vigente. La segunda etapa, denominada “ciencia revolucionaria”, se genera una vez
que el período de ciencia normal entra en conflicto ante la aparición de una o varias situaciones refutatorias
denominadas “anomalías”. Esta situación produce la inestabilidad y crisis del modelo, para finalmente romper
con la tradición de la ciencia normal al no poder encontrar elementos dentro del paradigma que le permitan
solucionar los problemas existentes. Se inicia de este modo la transición a lo que se conoce como “ciencia extraordinaria”. La situación da origen a un nuevo paradigma y a una nueva ciencia “considerada” ahora normal.
En este sentido, conviene aclarar que no todas las anomalías son generadoras de crisis. Por lo general, un paradigma está repleto de anomalías. Pero algunas de estas, dado su poco efecto, son generalmente explicadas
por la ciencia normal y descartadas sin llegar a ocasionar conflicto; sin embargo, otras –las menos–, provocan
molestias en la comunidad científica, casi siempre por razones pragmáticas y agudizadas por condiciones externas: la inhabilitación de una aplicación práctica y significativa, el contraste con algún principio fundamental
de las teorías que contiene el paradigma, o cualquier otra cuestión similar que será el preludio en la búsqueda
de nuevas anomalías más profundas, lo que conducirá al colapso del paradigma.
El cambio es revolucionario, ataca las evidencias más sustanciales y modifica las bases de la cultura. “Es una
transformación del modo de pensar, del mundo del pensamiento y del mundo pensado” (Morin & Sánchez,
1992, p. 237). No existe un momento exacto, ni un hecho puntual aislado, ni son hechos acumulativos los que
generaran esta crisis. En realidad, se trata de “…un proceso intrínsecamente revolucionario que rara vez lleva
a cabo una sola persona y nunca de la noche a la mañana” (Kuhn, 1962, p. 65).
En esencia, los paradigmas no se presentan inicialmente de un modo acabado o perfectamente definido. Previamente deben pasar por una etapa denominada preparadigmática, que se caracteriza fundamentalmente
“…por la carencia de un marco teórico sólido que afiance y guíe el paradigma en cuestión” (Kuhn, 1962, p.
65). Con el tiempo, este modelo evoluciona hasta elaborar la ciencia normal que será practicada por toda la
comunidad científica.
En este sentido, la ciencia normal, estará “…dirigida a resolver problemas de acuerdo con las herramientas
conceptuales e instrumentales de las que dispone el paradigma” (p. 65). En este proceso, “…no tiene por qué
explicar todos los hechos a los que se enfrenta y de hecho nunca lo hace” (p. 81). Aunque es claro que el éxito
33
Parte I. Presentación del problema
de una teoría dependerá del mayor o menor acierto que tenga a la hora de resolver los problemas “…que el
grupo de científicos practicantes considera urgente” (p. 89).
En otras palabras, en su teoría, Kuhn, canoniza los libros, transformándolos en una herramienta “…pedagógica inobjetable” (1962, p. 89). Es en estos donde se recopilan los logros de una determinada disciplina, lo que
permite que los científicos, por medio de analogías o semejanzas, puedan buscar la solución a los problemas
generados por la ciencia normal.
Sin embargo, en general los libros tardan en darse cuenta de los cambios ya que, como vehículo pedagógico,
deben reescribirse luego de cada revolución científica. Durante ese período de ciencia normal, los científicos
no ponen a prueba las teorías, ni buscan confirmarlas, por el contrario, buscan proponer soluciones a los problemas que van surgiendo en la investigación normal, dentro del paradigma.
Es bien claro que este proceso de anomalía, crisis, revolución y nuevo paradigma, permite la renovación científica, al responder a los interrogantes que el mismo paradigma va generando.
Y si bien pareciera que, en la mayoría de los casos, las teorías recién enunciadas no sobreviven (Kuhn, 1982,
p. 356), durante la crisis los científicos tratarán constantemente de engendrar nuevas teorías para resolver
las nuevas anomalías y, de tener éxito, podrán “…descubrir el camino que conduzca a un nuevo paradigma”
(Kuhn, 1962, p. 179). Cada revolución altera el mundo, sin embargo, “…hay circunstancias, aunque esporádicas, en las cuales pueden coexistir pacíficamente dos paradigmas” (Kuhn, 1962, p. 52).
En este sentido, Kuhn “…deja de lado la individuación y el examen de las reglas que constituyen una ciencia
normal para concentrarse en los paradigmas que determinan el comportamiento de los científicos” (Agamben
et al., 2010, p. 15) y, de este modo, “separa la ciencia normal del sistema de reglas que la definen” (2010, p. 15).
Durante este proceso, la percepción que el científico tiene del mundo también va a cambiar; su mirada con el
tiempo será “…reeducada” (Kuhn, 1962, p. 176), para aprender a ver las nuevas formas del paradigma y descubrir un mundo incomparable con el anterior. En este sentido, la tecnología ha desempeñado a menudo una
función vital en el surgimiento de nuevas ciencias.
34
La revolución destruye la continuidad del antiguo paradigma, “…las nuevas aseveraciones e ideas no se pueden comparar rigurosamente con las anteriores. Incluso si recurren al mismo vocabulario, su significado ya no
es el mismo” (Hacking, 2012, pp. 6-12), no existe alguna medida común que permita evaluar o comparar uno
con el otro. Esto es lo que Kuhn llama inconmensurabilidad: término formulado conjuntamente por Kuhn y Feyerabend, en 1962, y que significa “sin medida común”; heredado de la geometría, se refiere a la imposibilidad
de establecer relaciones y comparaciones entre magnitudes diferentes.
En consecuencia, cada paradigma posee su propio marco de definición e instrumentos, y establece el nivel de
percepción: “…vemos las cosas (los fenómenos de la naturaleza) de manera distinta” (Castano Carreño, 2009,
p. 33), y por lo tanto no pueden compararse de manera directa.
A través del concepto clave de la inconmensurabilidad, Kuhn centrará su objetivo en atacar la concepción
acumulativa del desarrollo científico de Popper. Posteriormente, durante los años setenta, Kuhn, intentaría precisar con mayor detalle el término, restringiendo todavía más su significado: para el filósofo estadounidense,
dos teorías serían inconmensurables “…cuando están articuladas en lenguajes que no son completamente
traducibles entre sí” (Pérez Arnal, 2003, p. 86), sin las consiguientes pérdidas.
Bajo un relativismo científico, Kuhn pone en crisis un modelo que había perdurado durante años, donde la
investigación se basaba en “…la elección de teorías como una actividad gobernada por principios autónomos
y universales de racionalidad” (Caldas Caldas, 2008, p. 5). Kuhn critica el carácter neutral de la observación,
Marcelo A. Fraile - Arquitectura biodigital
para él, no se puede determinar si una teoría es mejor que otra, ya que los criterios de valoración son relativos
y dependen del científico.
Un cambio de paradigma es “análogo a un cambio gestáltico”, los mismos objetos se ven desde una perspectiva distinta. En esencia tienen un aspecto destructivo, “…y las teorías sucesoras, a pesar de ser globalmente
más exitosas que sus antecesoras, con frecuencia no pueden reproducir todos los logros explicativos de éstas”
(Pérez Ransanz, 1999, p. 86).
Por esta razón, en principio, serán los jóvenes investigadores quienes estén abiertos a los cambios; nace
un nuevo vocabulario de nuevas herramientas. Con el tiempo, las antiguas academias desaparecerán y sus
miembros se reconvertirán al nuevo paradigma, sin embargo, algunas personas se aferrarán a “…los viejos
puntos de vista y simplemente [serán] eliminadas de la profesión” (Kuhn, 1962, p. 226).
Redefiniendo términos: Matriz Disciplinar
“… el científico que abraza un nuevo paradigma es como la persona que lleva lentes inversoras. Aunque se
enfrenta a la misma constelación de objetos que antes, y sabe que es así, con todo los encuentra transformados completamente en muchos de sus detalles”. (Kuhn, 1962, p. 226).
En 1965, la lingüista y filósofa británica Margaret Masterman (1910-1986) presentó en el Coloquio Internacional sobre Filosofía de la Ciencia, celebrado en Londres, un ensayo titulado The Nature of a Paradigm3, en
el que desarrolla las veintiuna maneras en que Kuhn emplea la palabra paradigma dentro de sus obras, “…
poniendo en evidencia la polisemia con la que el propio Kuhn había utilizado el término paradigma”. Masterman
analizó cuidadosamente cada una de las definiciones y las agrupó en tres categorías: la primera, denominada
Metafísica o Metaparadigmática, aborda cuestiones filosóficas fundamentales; la segunda, denominada Sociológica, está referida a logros científicos o a las estructuras político-institucionales; y finalmente la tercera,
Constructora, se refiere a las herramientas, modelos, lenguaje y reglas de la investigación científica (González, 2005, pp. 13-54).
Estas circunstancias obligaron a Kuhn a escribir, en 1969, Algo más sobre los paradigmas4, en donde corregiría y ampliaría su teoría al establecer dos categorías para los paradigmas: una global y otra local. “La
primera categoría se basa en la idea de comunidad científica, la segunda está integrada por diversos tipos de
ejemplos” (Hacking, 2012, pp. 6-12).
De este modo, la palabra paradigma quedaba circunscripta a dos significados: por un lado, “…como un logro,
…una forma nueva y aceptada de resolver un problema en la ciencia, que más tarde es utilizada como modelo
para la investigación y la formación de una teoría” (González, 2005, pp. 13-54); y, por otra parte, “…como una
serie de valores compartidos, …un conjunto de métodos, reglas y generalizaciones utilizadas conjuntamente
por aquellos entrenados para realizar el trabajo científico de investigación, que se modela a través del paradigma como logro” (González, 2005, pp. 13-54).
Hoy, lamentablemente, la palabra paradigma se ha banalizado y es usada casi en todos lados; algo de lo que
se lamentara Kuhn, en la posdata de la publicación de la Estructura..., de 1969: va a reemplazar el concepto
de paradigma, por el de matriz disciplinar, “…disciplinar porque alude a la posesión común por parte de los
que practican una disciplina concreta, y matriz porque se compone de elementos ordenados de varios tipos,
cada uno de los cuales precisa una especificación ulterior” (Castano Carreño, 2009, pp. 33-60).
3. Masterman, M, (1975) “La naturaleza de los paradigmas”. En I. Lakatos y A. Musgrave (Eds.), La crítica y el desarrollo
del conocimiento, México: Grijalbo. (Original publicado en 1970 por la Cambridge University Press bajo el título “The Nature of a Paradigm” en I. Lakatos y A. Musgrave (Eds.), Criticism and thegrowth of Knowledge.
4. Que forma parte de la selección de artículo que Kuhn incluyó en La tensión esencial. Estudios selectos sobre la tradición
y el cambio en el ámbito de la ciencia, de 1977 (edición consultada México, Fondo de Cultura Económica, 1996).
35
Parte I. Presentación del problema
En este sentido, Kuhn “…se refiere al grupo de científicos como la unidad social que reconoce y comparte un
logro paradigmático” (González, 2005, pp. 13-54), y es precisamente allí, señala el filósofo francés Edgar Morin
(1921), en donde se encuentra la genialidad de Kuhn, al descubrir bajo un presupuesto “…un fondo colectivo
de evidencias ocultas e imperativas que el denominó paradigmas”, sosteniendo además “…que las grandes
transformaciones de la historia de la ciencia se habían constituido mediante revoluciones paradigmáticas”
(1992, p. 217).
En su concepción, continúa Morin, Kuhn presentará un presupuesto que tendrá características duales, enérgicas e indefinidas: enérgicas, porque presentan el paradigma con un “…valor radical de orientación metodológica, [conformando] esquemas fundamentales de pensamiento, presupuestos o creencia que tienen un papel
clave, …dominador sobre las teorías” (1992, p. 222); e indefinidas, porque oscilarán “…entre sentidos diversos
que, in extremis, cubren de forma vaga la adhesión colectiva de los científicos a una visión del mundo” (1992,
p. 217).
Fenómenos a los que se enfrentarán los jóvenes científicos en su trabajo de resolución de los enigmas que
plantea la naturaleza de la ciencia bajo una utilización práctica, una racionalidad lógica e instrumentalista, que
amplían la capacidad para resolver enigmas y llegar cada vez más cerca de la verdad. Para Kuhn, se hace
indispensable la sociabilización de los logros, de los hallazgos, como un elemento clave para la generación de
los cambios paradigmáticos en el mundo científico.
En este “…combate permanente entre lo que existe históricamente y lo que hoy se considera moderno” (Zátonyi, 2007, p. 24), en esta lucha encarnizada, ya nadie podrá discutir que cincuenta y seis años después de
la publicación de La estructura de las revoluciones científicas, el texto todavía sigue vivo, y marcó una nueva
etapa en la historia de la ciencia y la filosofía.
En sus textos, Kuhn defiende que el progreso científico no puede establecerse en términos de búsqueda de
la verdad última, sino en un proceso sucesivo y en constante evolución producido a lo largo de la historia. Un
proceso que se caracteriza por alcanzar una comprensión cada vez más detallada y refinada de la naturaleza;
una disciplina científica que pasa por etapas hasta alcanzar su edad madura, desarrollada, consensual, paradigmática. En este sentido, su mirada es contraria a la visión de Karl Popper, ya que para este, la historia de
la ciencia es la historia de las continuas “conjeturas y refutaciones”, razón por la cual obligaría a encontrarnos
en un estado de revolución permanente.
36
En Kuhn se encuentra el germen del concepto de cambio científico ligado a una epistemología evolucionista,
donde el progreso tiene lugar solo en ocasiones, cambios abruptos, absolutamente discontinuos, que ponen
en crisis las hipótesis, por lo que sobreviene una revolución. Es lo que Kuhn ha denominado switch gestáltico, donde las teorías y los problemas anteriores son olvidados (las “pérdidas kuhnianas”), para ser reemplazados por otros nuevos, siguiendo una línea no uniforme de resultados.
Pese al tiempo transcurrido, los aportes desarrollados por las teorías de Thomas Kuhn son tan importantes
que aún hoy subsisten, en el seno de la ciencia, acaloradas discusiones que buscan desentrañar nuevas perspectivas de análisis que permitan en el futuro generar una apertura de pensamiento y producción científica,
que contribuya no solo a nuevos conocimientos, sino también a cambios cualitativos en los anteriores.
Marcelo A. Fraile - Arquitectura biodigital
Las Hipótesis de Pepper
El filósofo de la ciencia de origen americano, Stephen Pepper (1891-1972), reconocida autoridad en cuestiones estéticas, axiológicas y metafísicas, publicó en 1942 un libro titulado World Hypotheses: A Study in Evidence (Hipótesis
del Mundo: un estudio en evidencia), en donde desarrolla una serie de modelos básicos o “hipótesis” aplicados en
la observación de los fenómenos del mundo occidental: un “…intento de caracterizar unas formas paradigmáticas
de explicación histórica [de la realidad] como argumento discursivo” (Rosa, Huertas, Blanco, & Travieso, 1999, pp.
49-75), que toma como base la analogía lingüística, expresada a través de la metáfora.
En este sentido, las metáforas son creaciones poéticas que permiten encontrar respuestas a preguntas abstractas, cosificadas, “…congeladas en patrones de creencias rígidos” (Botella, 1994). Una postura metafísica,
“…que constriñe y a la vez demarca los modelos filosóficos o científicos aplicables a la observación e interpretación del mundo fenoménico” (Botella, 1994).
Para Pepper, los sistemas filosóficos se establecen desde una determinada cosmovisión o hipótesis del mundo. Cada una de estas hipótesis se caracteriza por tener dos elementos compositivos: una metáfora raíz y un
conjunto de categorías o criterios de verdad (Álvarez, 2006, pp. 1-12).
La metáfora raíz es el enfoque mediante el cual el observador intenta definir, comprender y clasificar el mundo
en el que habita, de acuerdo a cómo se le presenta en el contexto. Para el psicólogo americano Theodore Sarbin, las metáforas de raíz son utilizadas por los seres humanos como una “…forma de dar sentido a una experiencia novedosa para la que de momento no disponemos de constructos personales diferenciados [permite]
reconocer alguna similitud parcial entre el nuevo evento y otros que resulten más familiares” (Botella, 1994); en
tanto que un criterio de verdad se refiere a las descripciones del mundo en su totalidad que, posteriormente a
su análisis, se le extraen los elementos más relevantes para evaluar la validez de sus objetivos o metas. Para
que, en caso de no ser válidos, sean descartados, y el análisis vuelva al inicio, buscando obtener una nueva
explicación que le posibilite ahora sí cumplir sus objetivos.
En este sentido, para Pepper, una hipótesis cosmológica es “…una hipótesis de alcance ilimitado” (1942, pág.
77), es decir, un “constructo nuclear que constituye la metateoría implícita de la que se derivan las proposiciones teóricas e hipotéticas subordinadas” (Botella, 1994).
Sin embargo, conceptualmente, las “hipótesis” de Pepper difieren del estricto concepto científico de hipótesis,
en cuanto a la precisión y gama de elementos considerados: en sus teorías, Pepper ignora detalles y desarrolla
algunos conceptos con un sentido común, utilizando para ello sus propios términos para describir la mayoría
37
de los principios, abstraído de los detalles, evitando el exceso de significado. En sus escritos, cita muy poco.
Es por ello que nosotros utilizaremos la palabra hipótesis como un sinónimo del término de visión del mundo.
Cada hipótesis del mundo, es autónoma, y aunque en conjunto es un intento por proporcionar una visión
completa del mundo, individualmente crea sus propias reglas, lo que permite una y solo una interpretacion de
cada evento de acuerdo a esas reglas, presentado una vision particular en el modo de entender el espacio
del hombre. Conceptualmente, esto quiere decir: primero, que no podrá utilizarse una de estas hipotesis del
mundo para analizar o criticar a otra teoría del mundo, esto es “ilegítimo e inherente” –para el profesor Arthur
Efron, existen buenas razones para creer que muchas de las ideas de Thomas Kuhn derivaron de la obra de
Pepper, en especial su teoría sobre inconmensurabilidad (1980)–; segundo, que cada una de estas hipótesis
se revela contrastante ante las deficiencias de otra; y tercero, que cada hipótesis implica un conjunto de diferentes categorías conceptuales, muchas de estas, contradictorias.
Pepper considera que las hipótesis del mundo son típicamente aprendidas, con conocimiento cognitivo o sin
este. El individuo utiliza estas creencias para proveer de sentido a su vida y a la naturaleza. Pese a no ser reconocidas completamente por los científicos, estas creencias genéricas o “metáforas raíces” llegan a ser una
fuente importante de sus investigaciones y teorías.
Parte I. Presentación del problema
Las cuatro visiones del mundo
En un intento por dar una explicacion del mundo, Stephen Pepper establece cuatro visiones del mundo que
provienen de cuatro metáforas de raíces diferentes, cada una con su propio estilo de pensamiento. Estas cuatro hipótesis son: el formismo, el mecanicismo, el organicismo y el contextualismo. Las hipótesis se encuentran
ordenadas desde la más simple (formismo) hasta la más compleja (contextualismo).
La primera de las hipótesis es el formismo y los modelos de categorías. Considerada por Pepper como la
más básica de las hipótesis del mundo. Tiene como metáfora raíz la similitud, esto implica la repetición de una
forma reconocible: contempla una única mirada, una única posibilidad, una verdad incuestionable, es lo uno o lo
otro. En su forma de mirar “ prejuiciada del mundo” (Schwartz & Russek, 2012, pp. 7-23), considera a las demás
visiones equivocadas, no existiendo más opciones que la suya. Una percepción de dos aspectos diferentes de
ese evento, pero que no pueden experimentarse de forma independiente: “…en blanco y negro: las cosas son
blancas o negras, estás conmigo o contra mí, no hay más opciones” (Gonzalez Pereda, 2012, p. 56).
Bajo una mirada platónica del mundo supraterrenal, perfecto y atemporal, busca la esencia de las cosas a
través del conocimiento y la virtud: el formismo considera que la naturaleza está compuesta por categorías
independientes de estructuras y funciones. Es decir, que tanto las cosas como los procesos son categorías
separadas y distintas.
En su investigación, busca identificar las leyes o normas que identifiquen las características específicas de los
objetos, de este modo, “…Cuanto más similar sea la definición… más válida se considerará” (Álvarez, 2006).
En este sentido, tienen una preferencia por el campo histórico y el significado de sus procesos “…no soportan
mucho peso como proposiciones que puedan ser confirmadas o refutadas por medio de datos empíricos”
(White & White, 1992, pp. 9-50).
Una explicación formista “…se considera completa cuando un determinado conjunto de objetos ha sido adecuadamente identificado y se les ha asignado su clase, su género y los atributos específicos que atestiguan
su particularidad” (Rosa et al., 1999, pp. 49-75).
La segunda de las hipótesis es el mecanicismo y los modelos de causa y efecto. Tiene como metáfora
38
raíz la máquina, cualquier máquina. Se trata de una hipótesis más compleja que la anterior. Su teoría se enmarca dentro de lo que podríamos denominar “mecanismo universal”, donde el funcionamiento del mundo, por
analogía, puede ser considerado como un gran mecanismo matemático, complejo y cerrado: lo que implica
que este está formado por partes que interactúan entre sí de un modo determinado.
Comúnmente asociada a la física newtoniana, provee los fundamentos de una ciencia clásica que plantea una
teoría analítica del mundo, una realidad mecánicamente condicionada y estructurada por el tiempo y el espacio.
Su metáfora de raíz presenta una vinculación con el materialismo y el reduccionismo, donde el universo se
sujeta a principios que vienen de la física, de las leyes “mecánicas”, donde los elementos o sucesos aislados
funcionan como engranajes hacia una dirección determinada, una cadena de relaciones, donde todo tiene una
explicación causa-efecto: “…supone que cada cosa en la naturaleza tiene una causa y que en cada caso la
causa precede al efecto” (Schwartz & Russek, 2012).
El mecanicismo intentará descubrir las leyes que gobiernan el mundo, ambicionando describir el efecto de
esas leyes, y donde el espacio y el tiempo tendrán gran importancia en ello. En este sentido, aceptan las nociones de causalidad lineal, unidireccional e independiente de las variables: un análisis lógico de la realidad
como una colección de sistemas cerrados.
Desde esta perspectiva, la Tierra es una extensión por conquistar y controlar, sin cabida para el mito. Una
concepción analítica que concibe la naturaleza como producto de una transmisión de fuerzas. El pensamiento
Marcelo A. Fraile - Arquitectura biodigital
mecanicista busca explicaciones causales de los fenómenos, encontrar las leyes que los gobiernan, pues los
considera productos específicos de estos (Botella, 1994).
Bajo un carácter integrador, la metáfora mecanicista ve al universo como un conjunto bajo el cual el todo y sus
partes se corresponden. Una máquina que produce sus resultados de acuerdo a la energía aplicada sobre
esta: diferentes fuerzas producen diferentes resultados, el objetivo es descubrir las piezas y las relaciones
entre estas.
La tercera de las hipótesis es el organicismo y los modelos relacionales. Una de las más completas y acabadas hipótesis del mundo. Su hipótesis de raíz considera el ambiente como una fuerza dominante. Bajo este supuesto,
Pepper ve el mundo como un gran órgano viviente, un proceso de compleja evolución en el tiempo. Un sistema de
partes que se conforma para generar otro sistema aún mayor: “el todo es mayor que la suma de las partes”.
A través de este proceso, cada fenómeno es interdependiente; para comprender cualquiera de estos, se hace
necesario considerarlo en su evolución. Una interacción de múltiples transformaciones, y estructuras que crecen en complejidad a través de un proceso de integración (Álvarez, 2006).
El paradigma organicista, a diferencia del anterior, considera la naturaleza como causa de múltiples efectos:
“…las cosas (formas) pueden ser vistas como un todo desde un punto de vista y como una parte desde otro
punto de vista (contexto)”. En este sentido, “las cosas pueden ser parte de múltiples categorías, y las cosas
pueden tener múltiples funciones en múltiples niveles” (Schwartz & Russek, 2012).
Bajo una actitud romántica, que intenta presentar un proceso global integrador, tiende a analizar los principios
individuales donde los procesos son tomados como un todo: un sistema de cosas interconectadas e interdependientes en distintos grados.
Todas las cosas reflejan una interacción de múltiples estructuras y componentes. Una estrecha relación entre el microcosmos y el macrocosmos. Es el “holón”, acuñado en 1978 por el filósofo húngaro Arthur Koestler
(1905-1983) para referirse a esa cosa que es a la vez un todo compuesto de partes y una parte que conforma
un todo más grande (Schwartz & Russek, 2012).
La hipótesis organicista, “…No elige entre una explicación u otra, sino que integra todas y ‘algo más’ surgido
de su suma.
De creciente popularidad, la hipótesis organicista es reconocida por su asociación con las ciencias informáticas, ambientales y neurociencias. “Provee los fundamentos para la teoría de la información, la teoría de la
autorregulación, la teoría de la complejidad, y la teoría del caos (incluyendo el efecto mariposa)” (Schwartz &
Russek, 2012).
La cuarta de las hipótesis es el contextualismo y los modelos relativistas. Tiene como metáfora raíz la
relación de los sujetos con los acontecimientos históricos. Centrado en el sujeto, el contextualismo reconoce
que existen diferentes formas de interpretar el mundo de acuerdo a los factores y al contexto que se consideren.
Niega la existencia de una única respuesta (que proponía el formismo), y la supuesta cadena de causa-efecto
(propuesta por el mecanicismo). Para el contextualismo, cada fenómeno de la naturaleza puede tener diversas
explicaciones, todas las visiones son limitadas, dependiendo estas del punto de vista del observador. En este
sentido, “… todas las percepciones y, por lo tanto, todas las observaciones no son completas. Ellas son determinadas por la percepción selectiva del observador y las interacciones del observador con el objeto de interés”
(Schwartz & Russek, 2012).
En su investigación, el contextualismo niega la existencia de lo absoluto y de los acontecimientos aislados.
Una visión que implica la existencia de muchas formas de ver cualquier fenómeno, dependiendo del contexto:
“…tienen en cuenta las múltiples capas constitutivas de la realidad” (Botella, 1994).
39
Parte I. Presentación del problema
Para la hipótesis contextualista, el mundo está constituido por diferentes efectos simultáneos e interrelacionados: “El por qué ocurrió lo que ocurrió se explicará mediante la puesta de manifiesto de las interrelaciones
funcionales entre acontecimientos dentro del espacio histórico que le rodea” (Rosa et al., 1999, pp. 49-75). La
vivencia de los hechos aportará una intensidad única e intransferible entre personas que observan el mismo
fenómeno.
Pepper desarrolló dos nuevas etapas, pero con un nivel secundario: el misticismo y el animismo. Tiempo
después, las desestimó al considerarlas inadecuadas por carecer de “precisión en el trato de los hechos individuales”.
Resumen, críticas y respuestas
Para Pepper las dos primeras hipótesis, formismo y mecanicismo, corresponden con el paradigma de la ciencia
clásica, poseen un carácter analítico, implican un análisis del mundo bajo una teoría atomista, reducible a sus
partes. Una subordinación del análisis a la síntesis, es decir, una descomposición y reducción de sus componentes a fin de ser comprendidos plenamente; en tanto que las dos hipótesis restantes, organicismo y contextualismo, se corresponden con la ciencia moderna, consideran la síntesis sobre el análisis, al descomponer el
fenómeno en subcomponentes, alterando indefectiblemente su integridad esencial y su comprensión.
De igual forma, Pepper considera las hipótesis formista y contextualista como teorías disgregantes del mundo,
en tanto que las hipótesis mecanicistas y organicistas son teorías integrativas del mundo.
En los últimos años, dado el creciente interés que despertaron las teorías de Pepper, diversos investigadores
contemporáneos han publicado un número creciente de trabajos relacionados con las posibles secuencias
evolutivas de las categorías propuestas en World Hypotheses: A Study in Evidence. Y aunque el libro no trata
sobre arquitectura, sus categorías conceptuales pueden ser utilizadas para iluminar algunas categorías dentro
de la arquitectura contemporánea.
40
Uno de los trabajos al respecto es el de la arquitecta colombiana Beatriz García Moreno: “La ciudad de los
deseos” (2005), que utiliza como referente importante el pensamiento de Stephen Pepper: “Cuatro visiones
del mundo en las cuales [se] agrupa el pensamiento occidental, [abriendo] la[s] posibilidad[es] de entender
que hay epistemologías diferentes, lógicas diferentes, dominantes unas u otras en diferentes momentos históricos, que conllevan posturas específicas para el acercamiento y desciframiento de la arquitectura” (2006, pp.
31-39). Visiones que permiten examinar en correspondencia con el pensamiento y la política, y posibilitan el
seguimiento de las teorías y creencias dominantes.
La teoría de Estévez
En 1998, el profesor Alberto Estévez, en su artículo “Arquitectura Biomórfica”, propone lo que él llama la primera
historia de la arquitectura genética.
En un desarrollo cronológico, Estévez establece tres estadios de evolución de la arquitectura: el pasado clásico, el presente moderno y el futuro genético.
Paralelamente, en cada uno de estos estadios, Estévez identifica cuatro factores de análisis que le permiten
vincularlos transversalmente. Estos factores o sistemas son: el sistema formal, el sistema estructural, el sistema material y el sistema procesual o sistema de producción.
Marcelo A. Fraile - Arquitectura biodigital
El pasado clásico
Sitúa su origen hacia el año 2.800 a.C. en los rastros descubiertos en Saqqara, Egipto, y se desarrollará hasta
finales del siglo XIX, más precisamente con las obras del Art Nouveau (fin del historicismo) y de la modernidad
del siglo XX.
Este primer estadio muestra un sistema formal verticalizante, con estructuras a la compresión. Utiliza un sistema material de piedra, ladrillo y madera. Su sistema de producción es manual, donde cada pieza puede ser
individual, distinta o igual.
Desde las edificaciones de Imhotep en Egipto, se suceden griegos y romanos en un desarrollo cronológico
de una arquitectura calificable como arquitectura de los estilos históricos. Su origen es una “…construcción
biomórfica [que acaba] siendo una especie de conjunto de reglas abstractas, que ya no tienen nada que ver
más que con la pura composición formal” (Estévez, 2005, pp. 18-80), dictadas formalmente por las normas
de la academia, en una fidelidad a Vitruvio y los renacentistas. Desfilaron en pocos años los neoclásicos,
neorrománicos, neogóticos, neorrenacentistas, neobarrocos, cerrando por el momento el ciclo de revival en la
arquitectura (Estévez, 1996, pp. 281-296).
El presente moderno
Sitúa su origen a fines del siglo XIX y principios del XX, con las obras del Art Nouveau y del Movimiento Moderno, y se desarrolla hasta principios del siglo XXI, más precisamente con la aparición de las primeras obras biodigitales (biológicas o digitales) como el pabellón l´Orme, de Bernard Cache, de 2001, y el Proyecto Barcelona
Genética, de Alberto Estévez, iniciado en 2003.
Este segundo estado muestra un sistema formal horizontalizante y estructuras a la tracción. Utiliza un sistema
material de hormigón, acero y plástico, y su sistema de producción se realiza a través de máquinas automatizadas en series de piezas todas iguales. “Nuevos materiales permiten nuevas técnicas, ofrecen otras libertades espaciales y formales, distintos lenguajes arquitectónicos en evolución” (Estévez, 2003, pp. 4-19)5.
Es una arquitectura que abandona y rompe los modelos historicistas del pasado “…a cambio del uso más o
menos figurativo, más o menos literal de la naturaleza, como novedosa fuente de inspiración o de decoración”,
como en el caso del Art Nouveau.
En su búsqueda por descubrir un nuevo lenguaje más acorde con la arquitectura moderna, surgen “…maneras
llenas de sugerentes libertades para romper con la arquitectura clásica” (2005, pp. 18-80). En el capítulo “De
Gaudí a Calatrava: sobre el bando perdedor”, Estévez enuncia tres fases en relación con este desafío:
En la primera, situada a fines del siglo XIX, la iglesia de la Sagrada Familia o el Palacio Güell de Antoni Gaudí
son ejemplos del “…rompimiento con la tradición clásico-historicista y en la invención de una nueva tradición”.
Bajo una “…geometría reglada alabeada, de doble curvatura”, desarrolla una audaz arquitectura biomórfica.
Muy cerca se encuentran, por ejemplo, Víctor Horta, Henry Van de Velde, Hector Guimard, August Endell, Otto
Wagner, Josef Hoffmann, Josef María Olbrich y tantos otros, desarrollando también una arquitectura “…donde
el hierro ya danza liberado a sus anchas”.
La segunda fase se desarrolla entre los primeros años del siglo XX y el final de la Primera Guerra Mundial.
“Desde Bruno Taut, con sus… Glashaus (1914), pabellón de cristal para la exposición del Werkbund, en
Colonia, lleno de la fuerza contenida de un etéreo brote vegetal o del capullo de una flor a punto de abrirse”
pasando por Erich Mendelsohn y sus “edificios vegetales (1917-1920)”.
5. Todas las citas que aparecen a continuación refieren a este texto.
41
Parte I. Presentación del problema
En correspondencia con esta fase, Estévez planteará en su texto el nacimiento de dos bandos enfrentados.
Por un lado, los racional-funcionalistas, de la mano de Hermann Muthesius que busca una estandarización y
“…cuyo trabajo podía calificarse con los adjetivos ya vistos (funcional, económico, objetivo, material, tectónico,
realista, nunca simbólico), acercándose a lo apolíneo, racional, ordenado”; y, por el otro, los sentimental-orgánicos, representado por Henry Van de Velde, con una arquitectura “…que tocaba su opuesto en lo dionisíaco,
sentimental, rico en fantasía (y dado a lo simbólico, literario, subjetivo, hasta utópico, onírico, orgánico, expresivo), ¡pero también funcional!, viendo en la naturaleza un extraordinario modelo”. Dos bandos, pero con un
mismo enemigo común: el historicismo. Deslumbrados por el maquinismo y la Neue Sachlichkeit, seguirá el
período de entreguerras, en los años 20 y 30, desarrollando una arquitectura “…moderna en el mundo entero… claramente dominada por el racionalismo funcional, degenerado en el sucedáneo tópico y barato que ha
colmatado tristemente todas nuestras ciudades”.
La tercera fase se ubicará al finalizar la Segunda Guerra Mundial, donde Frank Lloyd Wright será uno de los
exponentes más radicales, “…hasta llegar últimamente en los años noventa a los peces y serpientes de Frank
Gehry y a los ojos y pájaros de Santiago Calatrava”, con un interés por el movimiento que incorporaría “…partes
dinámico-plásticas. A veces mediante un estudio de la plegabilidad de determinados elementos arquitectónicos”.
Para Estévez, el problema comenzó cuando se consideró a lo funcional “…como una de las máximas aspiraciones de la modernidad, en detrimento de todos los demás intereses”. Esto culmina con la figura de Le Corbusier, bajo la falsa confusión mediante la cual “… los que no seguían la línea racional no tenían preocupaciones
sobre la función”. Un estigma difícil de borrar aún hoy, donde todo edificio no racional-funcionalista queda “…
automáticamente bajo sospecha de no ser ‘moderno’”.
Y el siglo
Bilbao”.
XX
culminará con el Museo Guggenheim de Frank Gehry, “…plateada ballena varada en la ría de
El futuro genético
Sitúa su origen a comienzos del siglo XXI, más precisamente a partir del año 2000, con la creación de la línea
de investigación “Arquitecturas Genéticas”, de la Universitat Internacional de Catalunya, que estudia la aplicación de manera concreta de la genética a la arquitectura.
42
Este tercer estadio tendrá un sistema formal organizante de estructuras vivas. Utilizará un sistema material de
vegetales, carnes y huesos. Su sistema de producción será la máquina automatizada de piezas distintas y de
crecimiento natural.
Un sinnúmero de nuevas posibilidades técnico-digitales posibilitarán “…fabricar piezas reales, a escala 1:1,
…de manera directa, ya ‘ni modelos, ni moldes’”. Un enfoque que posiciona las nuevas vanguardias de la
arquitectura, en una situación consolidada en el “organicismo digital”: “Nuevos materiales, nuevas herramientas, nuevos procesos, deben dar necesariamente nuevas arquitecturas”.
Asistimos a un nuevo modo de proyectar ecológico-medioambiental, postulado por la arquitectura biológica,
con un enfoque multidisciplinar que mira a la genética como fuente de inspiración para la creación de nuevos
entornos. Una “…exploración morfológica hecha en torno a pieles y membranas ilustran donde la tensegrity
se hace orgánica”.
Las nuevas realidades científico-tecnológicas posibilitan hoy traspasar la frontera de lo material, “…y
descender a un nivel de acción molecular, incidiendo incluso en el diseño genético, en las cadenas de
programación que luego desarrollan por si solas elementos vivos naturales”.
Arquitectos que se asemejan a genetistas, “creadores de razas de edificios”, en un proceso similar al de
cualquier arte “…solo que, cambiando el óleo, el bronce y la piedra por cadenas de ADN”.
Marcelo A. Fraile - Arquitectura biodigital
Puede decirse “…que genética es la nueva arquitectura en los comienzos del tercer milenio”.
Para Estévez sus primeros representantes serían Bernard Cache, Karl S. Chu, Dennis Dollens, Evan Douglis,
Mark Goulthorpe, Neal Leach, Greg Lynn, Marcos Novak, Kas Oosterhuis, François Roche, Lars Spuybroek y
Mike Weinstock, entre otros.
El siguiente paso será la creación de casas vivas: “Edificios cuyas paredes y techos crecerán de carne y piel,
o por lo menos de texturas vegetales, que la genética puede llegar a desarrollar, con la calefacción radiante
incluida a través de sus venas y sangre refrigerante, aportadora del oxígeno necesario para la respiración, y
sin necesidad ya de enyesar, pintar y repintar”.
43
Marcelo A. Fraile - Arquitectura biodigital
LOS PARADIGMAS EN LA HISTORIA
Dentro de esta lógica propuesta, haciendo una transferencia al campo de la arquitectura de la noción de
paradigma desarrollado por Thomas Kuhn (1962) y extrapolando las temporalidades planteada por Steppen
Pepper (1942) y Alberto Estévez (2005), la búsqueda se centrará en la conformación y esclarecimiento de
aquellos elementos que permitan una construcción temporal de los paradigmas a través de la historia. Una definición y conceptualización de aquellas características más sobresalientes de sus ciclos: etapas de desarrollo
(ciencia normal), principales anomalías que identificaron el agotamiento de cada uno de los modelos (crisis) y
revoluciones paradigmáticas (ciencia revolucionaria).
Evidentemente, no todos aceptan la universalidad de las teorías de Kuhn. Para algunos investigadores, el
esquema propuesto por Kuhn difícilmente puede aplicarse a las ciencias blandas, como la arquitectura, esto
se debe a la pluralidad de enfoques que caracterizaría a nuestra disciplina, definiéndola como un estado preparadigmático, carente de una ciencia madura, con un solo paradigma y donde los debate sobre los temas
fundamentales todavía no han llegado a su fin: en este sentido, quedarían desvirtuados “…los hechos históricos y/o las herramientas conceptuales kuhnianas” (Cerezo, 1987, pp. 237-253).
Intentando zanjar el tema, en la segunda edición de “La estructura de las revoluciones científicas”, publicada en
1970, Thomas Kuhn propone una solución al problema al expresar que “…el predominio de un solo paradigma
no es condición para que se constituya y alcance la madurez. En consecuencia, la pluralidad de enfoques no
significa la pre-paradigmaticidad sino la multi-paradigmaticidad” (Caparrós, 1978, 1980, 1984); “así estamos
ante una ciencia consolidada que comprende perspectivas plurales por exigencias de su objeto de estudio”
(Cerezo, 1987, pp. 237-253).
Y aunque es claro que las nociones teóricas son definidas de acuerdo a las teorías que le dieron origen, “…
también es fácil pasar por alto el hecho de que incluso los términos descriptivos adquieren significados diferentes a medida que las teorías cambian” (Waltz, 1988, p. 24).
En otras palabras, el concepto de paradigma que desarrollaremos a continuación, no corresponde con exactitud a la definición planteada por Kuhn: ya que desde la perspectiva del neopositivismo1, este modelo aplicado
a la arquitectura es cuestionable “…pues no se trata de una actividad científica y, por tanto, … no parece extrapolable de una forma literal” (Ortega & Zaera-Polo, 2009, p. 5 y ss.). Estas afirmaciones, entendidas desde
un punto metafórico y no analítico, “no menoscaban la importancia del cambio, sino más bien todo lo contrario,
lo plantea en sus justos términos… cambios sustanciales en… los que se ha venido sustentando la práctica
arquitectónica” (Ortega & Zaera-Polo, 2009, p. 5 y ss.).
A partir de estas precisiones y de acuerdo al marco teórico previamente definido, estableceremos para nuestro
trabajo tres paradigmas, más una etapa inicial que denominaremos preteórica:
a. La etapa preteórica: es una etapa inicial, donde diversas teorías compiten entre sí, presentando una incapacidad de producir un único cuerpo acumulativo de resultados. No existe un único paradigma que
pueda expresar los fenómenos que se producen. Son fragmentos, recortes muchas veces superpuestos, que
imposibilitan la generación de un único discurso rector.
b. Primer paradigma: al que denominaremos “paradigma clásico”. Adhiere, en cierta medida, a las teorías del
“Formismo” de Pepper y del “Pasado Clásico” de Estévez.
Este paradigma “…hunde sus raíces en la Antigüedad, en los mundos de Grecia y Roma, en la arquitectura
religiosa de Grecia y en la arquitectura militar, civil y religiosa de los romanos” (Summerson, 1979, p. 10), sus
1 Al no poder considerar a la arquitectura una ciencia, ya que es una disciplina que se ocupa de saberes que anteceden al saber
de lo que hacen, refiriéndose al proyecto.
45
Parte II. Algunas ideas de paradigma y sus ciclos
diferentes vertientes y desarrollos influenciaron y sirvieron de referentes a las generaciones posteriores. Se
mantuvieron sin variantes, aunque con matices, hasta el siglo XIX.
Bajo un formalismo canónico, durante este período se generó una arquitectura de formas geométricas con
estrictas reglas de composición matemática del espacio.
Una belleza armónica verificable a través de sus proporciones: una relación entre las diversas dimensiones de un edificio, una relación aritmética simple, donde el todo es más que la suma de sus partes.
c. Segundo paradigma: al que nombraremos “paradigma mecánico”. Recoge en cierta medida las teorías del
“Mecanicismo” de Pepper y del “Presente Moderno”, de Estévez.
Este paradigma, “…tiene sus raíces en las trasformaciones técnicas, económicas y sociales de principios de la
modernidad, o sea, del siglo XVII, y que a través de un proceso ideológico se presenta como un conjunto de reglas
que permite universalizar el verdadero conocimiento” (De Souza, 2007, p. 95).
Tomando como base la producción masiva, ve su representación más fiel y precisa en la fabricación industrial.
Por ello, propugnaba un modelo estandarizado-mecanicista, con un sistema de producción prefabricado
en masa; una producción de objetos sin variaciones, rigurosamente idénticos, de acuerdo con una estricta
geometría euclidiana.
Nuevos materiales como el hierro, el vidrio y el hormigón armado, posibilitaron a los diseñadores generar nuevas formas, bajo una limitación compositiva de elementos abstractos. Su arquitectura queda circunscripta
al uso de formas platónicas: cilindros, cubos, esferas, conos y pirámides. Una arquitectura basada en “…
la amnesia, la negación o la ruptura con el pasado, en la voluntad estética de innovación y la búsqueda de
formas de la abstracción y el funcionalismo” (Montaner, 1995, p. 141).
d. Tercer paradigma: al que denominaremos “paradigma biológico digital”. Refiere a las teorías del “Organicismo” y del “Contextualismo” de Pepper, y al “Futuro Genético” de Estévez.
Invadido por el pensamiento de otros campos disciplinares, y apropiándose de ideologías diversas, este paradigma tiene su fundamento en el uso de teorías morfogenéticas en el diseño. Una proliferación de nuevos
conocimientos teóricos que está generando inéditas relaciones entre naturaleza, ciencia y tecnología: un
ámbito donde las nociones tradicionales de estos conceptos se han modificado, al surgir un nuevo diálogo que
intenta llegar a niveles más avanzados del hacer y del pensar el diseño.
46
Esto implica un conjunto de nuevas herramientas biológico-digitales que son utilizadas por los diseñadores
no ya como sistemas de representación, sino como poderosos instrumentos para la exploración de formas,
inspiradas en la naturaleza, que buscan optimizar los recursos y dar respuestas adecuadas a las características del contexto.
Esto puede explicarse ante la aparición de programas y microprocesadores cada vez más poderosos, con gran
velocidad de procesamiento de la información, que permitió a los diseñadores contemporáneos acceder a un
abanico de nuevas posibilidades dentro del espacio virtual tridimensional del monitor. Nuevas herramientas que han modificado sus capacidades de manera exponencial, permitiendo la exploración de importantes
repertorios formales, cada vez más complejos: espacios geométricos no euclidianos, algoritmos genéticos,
sistemas cinéticos y dinámicos (Kolarevic, 2003, p. 3), que nos acercan en el modo de producir una nueva arquitectura revolucionaria. Una nueva arquitectura no tipológica, discontinua, amorfa, no perspectiva, ahistórica
(Kolarevic, 2003, p. 4).
A través del uso de estas herramientas, es posible desarrollar modelos biológico-digitales de avanzada: modelos capaces de procesar en tiempo real, miles y miles de variables, evaluando su comportamiento de
acuerdo con una serie de hipótesis preestablecidas. Para ello, los nuevos diseñadores, recurren al auxilio de
Marcelo A. Fraile - Arquitectura biodigital
script, programas encargados de manejar un número reducido de datos, en procesos repetitivos de un modo
desatendido. Un camino para la obtención de infinitas soluciones a un importante número de problemas.
Sin embargo, para que esto suceda, antes será necesario indicarle a la máquina lo que debe hacer: un listado
de rutinas que determinarán las tareas, los pasos que se deben seguir; una serie de comandos e instrucciones, un código programático que le enseñe a la computadora qué variable deberá procesar y como
deberá hacerlo, diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos deberá
conectar y cómo llegará a hacerlo. “No hay magia en la informática”. Según Brady Peters, lo importante en un
modelo es “…entender cuáles son los parámetros de un proyecto… y descomponerlos en las reglas definidas”
(Freiberger, 2007). Detectado esto, será posible construir matrices, modelos matemáticos, que permitan a
partir de estos establecer cómo se relacionan, a fin de poder evaluarlo (Fraile, 2012).
47
Marcelo A. Fraile - Arquitectura biodigital
LA ETAPA PRETEÓRICA
“Los griegos decían que el asombro es el principio del conocimiento, y si dejamos de asombrarnos corremos
el riesgo de dejar de conocer”. (Gombrich, 2002).
De acuerdo a lo antes visto, Thomas Kuhn, en su libro la Estructura de las Revoluciones Científicas, desarrolla
un abordaje del progreso histórico de la ciencia basado en dos conceptos fundamentales denominados: ciencia normal y ciencia revolucionaria.
Sin embargo, previamente al avance de estas disciplinas científicas, Kuhn hace mención a una etapa anterior,
denominada preparadigmática: una etapa definida por frecuentes debates sobre problemas, normas y soluciones posibles. Una etapa con abundantes disensos, donde proliferan diversas categorías especulativas e
inarticuladas dentro del campo teórico.
Para Kuhn, durante este período, diversas teorías compiten entre sí, presentando una incapacidad de producir
un cuerpo acumulativo de resultados, no existe un único paradigma, no existe una única explicación teórica
que pueda expresar los fenómenos que se producen. El estado de situación es “…demasiado complejo para
integrarse en alguna teoría […y] permitir que surja un primer paradigma” (1962, pp. 77-78).
Una particularidad de esta etapa, según Kuhn, es que cada investigador debe comenzar sus estudios desde el
principio. El desarrollo queda pendiente, ya que no cuenta con ningún marco de referencia donde apoyarse: “…
Solo a medida que el experimento y las teorías tentativas se articulan conjuntamente, surgen descubrimientos
y la teoría se convierte en un paradigma” (1962, p. 77-78).
Las primeras construcciones
Un buen ejemplo para graficar estas cuestiones en el campo de la arquitectura puede rastrearse en el valle
fértil de Ucrania, al oeste de la ciudad polaca de Cracovia, e incluso en la misma Checoslovaquia. Se trata de
lo que los expertos denominan “choza de huesos”, una serie de cabañas con una antiguedad de entre 22.000
y 15.000 años, uno de los refugios más antiguos construidos por el hombre prehistórico.
La importancia de este hallazgo, de acuerdo con el Dr. Estévez, se fundamenta en que, por primera vez en
su historia, el ser humano se aleja de sus necesidades físicas primarias para comenzar a utilizar aquellos
elementos “…que le llevarán a hacer arquitectura que le satisfaga su espíritu” (2005, p. 22).
Agrupados en pequeñas poblaciones de cuatro o cinco edificaciones circulares, con un radio de cinco metros
aproximadamente, estas comunidades abandonan sus costumbres nómadas de recolección de granos y semillas, para convertirse en sedentarios. Ante la ausencia de cuevas y la escasa madera, resuelven sus principales necesidades de refugio y almacenamiento de productos utilizando los huesos de mamut para construir
sus viviendas: incluso los colmillos son utilizados como material estructural, atados con cordones formando
una especie de arco que les permitiría posteriormente ser cubiertos con pieles.
Estos descubrimientos se conocen desde finales de la década de 1920, pero uno de los más completos se
produjo en 1965 en Mezhirich, Mezhyrich o Межиріч, un pueblo en el centro de Ucrania, próximo a la desembocadura del río Rosava con el río Ros. Un agricultor, mientras excavaba su propiedad para ampliar su
bodega, desenterró a dos metros del nivel de suelo la mandíbula inferior de un mamut. Posteriormente, quedó
revelada la presencia de cuatro cabañas, compuestas por 149 huesos de mamut, que datan de hace unos
15.000 años. Huesos que pertenecieron a aproximadamente noventa y cinco mamuts. Muchos fueron arrastrados entre 350 y 500 kilómetros de su fuente, pese a que el peso de algunos de estos huesos llegaba a los
100 kilos. razón por la cual los obligaba a “…gastar una energía muchísimo mayor de lo que era habitual para
construir chozas normales y corrientes” (Estévez, 2005, p. 23).
49
Parte II. Algunas ideas de paradigma y sus ciclos
En el interior de la cabaña, pudo encontrarse, además, adornos de ámbar, conchas fósiles, y un cráneo de mamut decorado que servía a modo
de tambor.
Por primera vez estamos en presencia de un sistema constructivo “…
con un cierto orden estético” (Estévez, 2005, p. 23). Su construcción
no obedece a razones estrictamente funcionales de cobijo, sino que, a
modo de decoración, apilarían los distintos huesos en hileras horizontales, coronándolos mediante bóvedas de colmillos (Estévez, 2005, p.
23). Se afianza la idea de una arquitectura superior al mero concepto
de abrigo.
Para el 8000 a. de C., la cultura del Neolítico se había extendido y establecido por la actual Siria e Irak, y para el 3500 a. de C. la cultura Sumeria, considerada como la primera y más antigua civilización en el mundo,
se había establecido en el valle del Tigris y el Éufrates, donde desarrolló
importantes avances en materia de producción de metales, ganadería y
Fig. 1. Choza de huesos, con una antiguedad de entre 22.000 y 15.000
años, uno de los refugios más antiguos construidos por el hombre prehistórico.
agricultura. Con un lenguaje escrito y profundos conocimientos en astronomía, matemática y medicina, no deben extrañarnos sus importantes
avances en arquitectura. Sus primeras construcciones se realizaron a
través del apilamiento de elementos tales como piedras sin labrar o, con
el avance de la técnica, de ladrillos de cerámica: la arcilla húmeda y colocada en moldes de madera era dejada a secar al sol o cocida en hornos, luego se obtenía una pieza ortoédrica de gran resistencia, el ladrillo
cerámico sólido y duradero que utilizaban para construir sus edificios.
Entre sus edificios más representativos, se encuentran grandes templos
denominados zigurats, realizados con piedra, ladrillos y adobe. Los zigurats eran construcciones como montañas artificiales, que acercaban
al hombre, física y simbólicamente, al cielo y a sus dioses.
Hacia el 3100 a. de C., el foco de la civilización se había desplazado
hacia el nordeste de África. En Egipto, cerca del río Nilo, nacía una gran
civilización con importantes avances en materia de medicina, astrono-
50
Marcelo A. Fraile - Arquitectura biodigital
mía, ciencia, arte y, fundamentalmente para nosotros, arquitectura. Con
la llegada al poder de la III dinastía, se encomienda al arquitecto Imhotep
la construcción del conjunto funerario de Zoser, en Saqqara. Una arquitectura desarrollada: “…con el objeto de garantizar que la morada del faraón fuese eterna…construye en piedras lo que tradicionalmente se hacía con juncos, hojas de palma, troncos de madera y esteras” (Estévez,
2005, p. 23). Una revolución que transformaría el muro ensamblado en un
elemento monolítico, lo que garantizaría la transmisión de los esfuerzos
entre piezas individuales, sin fallas o deformaciones considerables. Una
arquitectura plástica donde el espectador, que mire cualquiera de las cuatro caras de una pirámide “…percibe solamente la superficie unitaria del
triángulo isósceles, cuyos lados, con su contorno tan definido, no hacen
pensar en absoluto en la conjunción que se efectúa detrás” (Riegl, 1997,
p. 85). La más pura expresión de una arquitectura funeraria: su interior,
queda limitado “…a la construcción de una pequeña cámara sepulcral,
cuyas vías de acceso, reducidas al mínimo, casi no pueden apreciarse
por quien observa el edificio desde el exterior” (Riegl, 1997, p. 85).
Igual desarrollo alcanzarían sus templos y palacios: grandes salas hipóstilas, de altas columnas decoradas con motivos vegetales, distribuidas proporcionalmente siguiendo una malla regular, la cual quedaría
encerrada por un muro perimetral, una reproducción de los “…rasgos
idealizados del paisaje” (Rykwert, 1997, p. 87): un recinto arquitectónico
cubierto, inspirado en las formas y los espacios creados por la naturaleza. Todo en su proyecto, forma, espacio y proporción “… tiene un significado simbólico y ritual” (Giedion, 1997, p. 85).
Fig. 2. Zigurats. Establecido por la actual Siria e Irak. 3500 a. de C.
El camino hacia un pensamiento universal
En este transcurrir a través del tiempo por diversas culturas, hemos
podido observar cómo cada una de estas, ante la misma gama de
fenómenos culturales, describía e interpretaba el mundo, pero de un
modo diferente.
51
Parte II. Algunas ideas de paradigma y sus ciclos
Fig. 3. Hacia el 3100 a. de C., cerca del
Desde sus orígenes, bajo un concepto epistemológico, cada cultura ha
río Nilo, se encomienda al arquitecto
intentado identificar los problemas, con un enfoque teórico individual,
oscilante, que le permitiera explicar mejor los fenómenos y el modo de
resolver sus anomalías.
Imhotep la construcción del conjunto
funerario de Zoser, en Saqqara.
Ante la carencia de un caudal teórico consolidado y aceptado de un
modo universal, sus respuestas quedaban circunscriptas a probabilidades, sin consustanciarse en una idea importante, evitando de este modo
alcanzar progresos significativos: la ausencia de una medida patrón que
llegara a imponerse por sobre las demás, aportando soluciones generales a problemas generales.
52
Un período de abundantes disensos acerca de los métodos, problemas
y normas de solución legítimas, donde diferentes posiciones valorativas
generaban debates que oscilaban de lo más trivial a lo mas complejo.
“No es de extrañar, por tanto, que en los primeros estadios de desarrollo…, distintas personas describan e interpreten de modo[s] diferente[s]
el mismo rango de fenómenos” (Kuhn, 1962, p. 80).
Y aunque no es tarea fácil determinar el comienzo cronológico que dio
lugar a un cambio de pensamiento, sí es posible detectar logros significativos –aunque incompletos–, capaces de resolver problemas parciales, con un efecto puramente práctico.
Bajo la idea de una belleza armónica universal, sus resultados quedarían definidos a través de una arquitectura desarrollada con base en
el cálculo matemático: un sistema racional y armónico de proporciones
que tomaba como módulo el diámetro de la columna medido en su tercio
medio. Un sistema arquitectónico de raíz trilítica, con reglas estéticas
previamente establecidas, de fácil lectura y equilibrado trazado.
Con el tiempo, estas ideas se alinearían con otras tantas para desarrollar una estabilidad en el campo del conocimiento. El nacimiento de una
teoría lo suficientemente fuerte que ejercería su poder de atracción, y
Marcelo A. Fraile - Arquitectura biodigital
daría lugar a un período de normalización en la producción científica: un
pensamiento universalmente aceptado, capaz de suministrar modelos
de problemas y soluciones a una comunidad científica y dar lugar al nacimiento de una ciencia normal y con esta, al “paradigma clásico”.
Figuras
Fig. 1. Choza de huesos. https://sites.google.com/site/inventosprehistoricossanti/
home/paleolitico-superior-50-000---10-000-ac
https://commons.wikimedia.org/wiki/File:Mammoth_House_(Replica).JPG
Fig. 2. Zigurats. https://sobrehistoria.com/los-zigurat-bastiones-de-lamesopotamia/
http://www.historiaantigua.es/imagenessumer/files/page14-1130-full.html
Fig. 3. Piramide Zoser. https://www.viajejet.com/monumentos-de-egipto/
piramide-escalonada-de-zoser-saqqara-egipto/
53
Marcelo A. Fraile - Arquitectura biodigital
EL PARADIGMA CLÁSICO: HIPÓTESIS FORMISTA
“Bernstein atinadamente le aplicaría la aguda descripción que hace William James de las distintas etapas de
la carrera de una teoría: ‘Primero, ustedes saben, una teoría es atacada como absurda; luego se admite que es
verdadera, pero obvia e insignificante; finalmente se considerará tan importante que sus adversarios afirmarán
que ellos mismos la descubrieron”’ (Pérez Ransanz, 1999, pp. 26-27).
A este primer paradigma, lo denominaremos Paradigma Clásico, y recoge, en cierta medida, la “Hipótesis
Formista” de Stephen Pepper (1962) y el “Pasado Clásico” de Alberto Estévez (2005).
Para Pepper, la hipótesis raíz del formismo era un mundo supraterrenal, perfecto y atemporal, que buscaba la
esencia de las cosas, a través del conocimiento y la virtud.
Bajo una mirada platónica, este paradigma hacía alusión a un mundo formalista canónico, reflejo de un cosmos ordenado, contenedor de toda belleza y perfección. Un cosmos que generaría una arquitectura de formas geométricas
puras, con estrictas reglas de composición matemática del espacio: una búsqueda por lograr una armonía verificable entre sus partes, de acuerdo con ciertos preceptos previos de belleza análoga con las armonías musicales y
cómo estas se conseguían mediante las proporciones, “…es decir, asegurando que las relaciones entre las diversas
dimensiones de un edificio [sean] funciones aritméticas simples y que los cocientes numéricos entre las diversas
partes del edificio [sean] los mismos o estén relacionados entre sí de modo muy directo” (Summerson, 1979, p. 11).
En este aspecto, la arquitectura “…cumplía de diferentes maneras, su función de mediadora entre la Tierra y
lo desconocido… una conexión entre el mundo de los dioses que está más allá de lo terrenal, y el mundo de
los humanos construido en la Tierra” (García Moreno, 2005).
Por su parte, el “Pasado Clásico” de Estévez consideraba que este paradigma tendría sus inicios en los templos griegos clásicos del siglo V a.C. y en el desarrollo de una arquitectura en piedra (2005, p. 24).
Bajo un valor colectivo, se trataba de una arquitectura regida por el uso de formas geométricas elementales y
la reintroducción de los órdenes antiguos, los cuales pasarían a través de la historia desarrollando diferentes
manifestaciones artísticas: renacentistas, manieristas, barrocas, neoclásicas, historicistas. Una reutilización,
después de un intervalo de casi un milenio, de las formas características del arte clásico, es decir, griego y
romano, a través de una articulada integración del pasado con el presente (Conti, 1993, p. 3).
Un paradigma que había suscitado un conjunto de reglas racionales, resumidas en un lenguaje común, cuya uti- 55
lización duraría, con vicisitudes alternas, durante más de cuatrocientos años, para acabar siendo a mediados del
siglo XIX, un conjunto forzado de normas abstractas carentes del espíritu que las había creado (Conti, 1993, p. 3).
El carácter de la mímesis como definidora de belleza
De acuerdo con el Diccionario de la Real Academia Española, la palabra mímesis deriva del latín ‘mimēsis’ y
este del griego μίμησις, y se refiere a la “…imitación de la naturaleza que como finalidad esencial tiene el arte”
(RAE, Asale, 2014).
Conceptualmente, la mímesis, en la Antigüedad clásica, tuvo un significado amplio y ambiguo, que alternaba
entre las ideas de imitación, representación o reproducción. Aristóteles, en su libro Poética, mencionaba el
término mímesis como la base por la cual “las artes imitan la naturaleza”, copiando la apariencia de las cosas
a través del ritmo, la armonía y la palabra.
La idea de asociar la belleza con la naturaleza es un concepto muy antiguo. Desde tiempos inmemoriales, el
hombre ha intentado aprender de esta, conocer sus leyes, las proporciones de sus partes, los rasgos carac-
Parte II. Algunas ideas de paradigma y sus ciclos
terísticos de su belleza, para luego así poder reproducirlas en sus obras: a partir de la emulación, el hombre
es capaz de aprender.
La mímesis es considerada como un modo natural de aprender, pues en la práctica proporcionaba conocimiento: “Somos monos de imitación”, apuntaba el filósofo español Fernando Savater (1947), y “es por medio
de la imitación por lo que llegamos a ser algo más que monos” (Cotofleac, 2009). En este sentido, el término
latino ‘mimēsis’ corresponde a su derivación más común, razón por la cual mímesis se tradujo al castellano
como “imitación”.
En consecuencia, la mímesis puede ser asociada con los conceptos vertidos por Savater, al considerarla una
actividad connatural del hombre, es decir, una característica innata de la naturaleza humana –que desde su
infancia imita, y es a través de esta que el hombre satisface su deseo de aprender–.
Aristóteles consideraba que la mímesis tenía tres principios fundamentales: el de la verosimilitud, que a través
de los artificios vuelve creíble la escena; el del conocimiento, que con la imitación genera conceptos y permite
aprender; y el del placer, que a través de la plasticidad misma de los lenguajes miméticos produce un deleite
en sí mismo (Tapia, 2007).
Sin embargo, desde este punto de vista, la mímesis se diferenciaba de la representación, ya que su uso podía
ser entendido como un sinónimo de la analogía, donde existía un parecido o semejanza con el original. En
este sentido, la mímesis parecía tener mayor relación con la ilusión que con la verdad, imitando la realidad
pero evitando ser comparada con el referente, para su comprensión intentaba construir experiencias análogas
pero no equivalentes a lo real: “…lo que cuenta es la generación vívida de la imagen de lo real a través de
artificios, habrá mímesis en las palabras, en las imágenes, en los sonidos de la música” (Tapia, 2007).
De igual modo, la mímesis no tiene que mostrar la verdad ni reproducir exactamente lo real, evoca las situaciones para que parezcan convincentes, creíbles: si bien “mímesis” es un sinónimo adecuado para “analogía”, en
general se habla de mímesis cuando existe un parecido o semejanza más exacta con su original, reservando
el concepto de analogía a aquellas situaciones en que simplemente se indica que “…dos o más entidades son
similares en uno o más aspectos” (Suñol, 2005, pp. 107-126).
No obstante, es importante destacar que Aristóteles no definió explícitamente el concepto de mímesis, por el
contrario, sus formulaciones aparecían disgregadas en diversos escritos, situación que se transformó en un
foco de discusión durante los siglos posteriores y que recibió diversas interpretaciones a lo largo de la historia.
56
Por su parte, Platón, contrario a los pensamientos de Aristóteles, consideraba que la mímesis poseía un valor
meramente artístico de imitación, su uso denotaba una irracionalidad y una falta de discernimiento que nos
alejaba de la verdad. En su libro decimo, de La República, Platón desarrollaría una fuerte crítica a la mímesis. En su obra sitúa la poesía y la pintura como imitación (mímesis), y toma el ejemplo de un carpintero que
cuando produce una tabla, esta es en realidad una copia del modelo existente en el mundo de las ideas, de
allí que, cuando un pintor representa esa tabla, en realidad lo que está haciendo es una copia de la copia, algo
muy lejano de la verdad.
Para el profesor Ernst Gombrich, la mímesis es un instrumento poderoso de la retórica, una imitación de lo
real que permite poner ante los ojos hechos o fenómenos como si estuvieran realmente ahí (2002). En este
sentido, la mímesis quedaría asociada al concepto de techné, vocablo de raíz griega τέχνη, que se tradujo
como “arte” o “técnica” y que definía al conjunto de procedimientos, reglamentos y pautas que eran utilizados
como un medio para arribar a un resultado específico.
Desde este punto de vista, el concepto de techné es una noción genérica, comúnmente asociado al trabajo
manual, a las habilidades y destrezas de una persona, con referencia al manejo de cualquier tema o material.
Marcelo A. Fraile - Arquitectura biodigital
Aristóteles ya la había definido como una acción a partir de la cual el hombre producía una realidad que antes no
existía. En tanto que, para Heidegger, es una creación, un “producir sapiente”, que para poder crearse requiere
no solo de habilidades manuales sino también de conocimientos.
En esencia lleva implícito el concepto de sistematización y el uso de herramientas, sean estas físicas o intelectuales. Se encuentra asociada a la necesidad humana que buscaba alterar el medio para adaptarlo a sus
necesidades y completar las cosas que la naturaleza había dejado inconclusas: “Si bien es cierto que la naturaleza parece ser capaz de realizar algunas cosas por sí misma, en otros casos necesita de la intervención
de la techné”, para que esta cumpla sus fines (Suñol, 2005, pp. 107-126). Bajo este punto de vista, tanto un
escultor como un zapatero son considerados artistas, ya que su trabajo es una técnica, una capacidad para
producir algo que antes no existía.
De lo anterior, podemos inferir que el arte, para los griegos, no podía entenderse como creación espontánea
e inventada por el espíritu libre del artista sino, por el contrario, era “…una conquista de la techné”, donde
el artista era “…aquel que aplica[ba] en toda su plenitud las leyes establecidas y acordadas” de antemano
(Ferri, 1997).
Ahora bien, al extrapolar estos conceptos hacia el campo de la arquitectura griega, veremos a continuación
cómo la idea de mímesis resuena con fuerza “…al referirse al lenguaje cifrado del arte como el medio por el
cual la naturaleza, en sus formas bellas, nos habla ‘figuradamente’” (Cotofleac, 2009).
Para algunos autores, la idea de mímesis en la arquitectura se encontraba asociada “…al seguimiento de procedimientos de comprobada eficacia y de formas de reconocida aceptación” (Cotofleac, 2009).
Si bien es cierto que tanto Aristóteles como Platón aplicaron el concepto de mímesis solo a las artes imitativas como la pintura o la escultura, pero no a las artes originales como la arquitectura, no obstante, podemos
considerar la arquitectura de la Antigüedad clásica con relación a la mímesis, tanto en la teoría como en la
práctica. En este sentido, cada objeto arquitectónico era “…presentado del modo más directo, y su comprensión reducida en lo posible a las inmediatas percepciones sensibles” (Benevolo, 1967, p. 22).
En otras palabras, la arquitectura griega quedaba definida bajo una regularidad, que se ha convenido en
llamar con el nombre de orden: una disposición regular y armónica que posibilitó generar en los edificios
una composición bella entre sus partes, y de estas con el todo. Un sistema de proporciones asociado con la
naturaleza, una relación numérica concebida a partir de un número fijo predeterminado como módulo, que
correspondía con el diámetro de la columna, medido en el tercio medio de su altura.
El orden era el encargado de organizar y estructurar el edificio para darle sus características generales y su
lenguaje determinado de una manera coherente, armónica y proporcionada, de acuerdo con los preceptos
básicos de belleza. Cada orden conformaba una unidad modular, compuesta por dos partes: por un lado, las
columnas, subdivididas en base, fuste y capitel; y por el otro, una pieza horizontal denominada entablamento,
subdividido en arquitrabe, friso y cornisa.
Para el arquitecto español Luis Borobio, los órdenes clásicos solo atendían a las características intrínsecas de
sus dimensiones, una relación cerrada de sus partes entre sí y con el todo, sin atender a referencias externas
como las proporciones del cuerpo humano (Cotofleac, 2009).
En este complejo lenguaje de formas, los griegos solo utilizaron tres órdenes: el dórico, el jónico y el corintio.
Cada orden presentaba una compleja serie de relaciones y medidas entre sus partes, pese a ello, ninguna
solución era desarrollada de modo taxativo, por el contrario, sus “…reglas ideales, podían traducirse concretamente de muchos modos distintos” y el artista conservaba “…un margen de libertad para adaptarse a cada
uno de los casos” (Benevolo, 1967, p. 19).
57
Parte II. Algunas ideas de paradigma y sus ciclos
En tal sentido, el uso del orden en la arquitectura permitió, a través de
una serie de reglas aproximativas, asegurar un elevado nivel medio en la
producción general. Y aunque no todos los proyectistas fueran diestros,
proporcionaría un nivel medio como punto de referencia.
De igual forma, el sistema garantizaba que frente a un nuevo proyecto,
el diseñador no comenzaría desde cero al introducir una serie de términos conocidos que le permitirían concentrarse sobre las incógnitas
de su caso (Benevolo, 1967, p. 20); el sistema se transformaba en una
selección progresiva de resultados, donde cada nueva solución buscaba
perfeccionar aún más la multiplicidad infinita de soluciones a problemas
recurrentes: “…porque ninguna imitación sensible ni una serie de imitaciones pueden consumir las virtualidades contenidas en el modelo ideal”
(Benevolo, 1967, p. 19).
De todos los edificios de la arquitectura clásica, el templo fue, sin lugar a
dudas, el edificio que jugó un papel trascendental en la sociedad antigua
y se convirtió en una de las construcciones más significativas; es la síntesis de un vocabulario estructural capaz de “…dar expresión práctica a
aquellos conceptos espaciales que postula para la creación de un medio
formalmente deliberado” (Martienssen, 1961, p. 15).
Fig. 1. El orden era el encargado de
organizar y estructurar el edificio para
darle sus características generales y
su lenguaje determinado de una manera coherente, armónica y proporcionada, de acuerdo con los preceptos
básicos de belleza.
Cada edificio era la materialización de un proyecto, un instrumento de
creación que buscaba lo nuevo: “…una oscilación en espiral entre una
proposición creativa y una crítica inmediata” (Diez Del Corral, 2005, p.
13), una combinación entre lo estético y lo estructural.
Inicialmente concebido de madera, el templo pronto se convertiría en
una exaltación de la perfección a través de bloques de piedra unidos
sin argamasa, bajo la concepción platónica de belleza. Una sintaxis arquitectónica de lenguaje clásico heredado, donde orden y sistema se
yuxtaponen en una organización reconocible y mensurable que permite
corregir “… la impresión óptica del espectador mediante ajustes ‘eurítmicos’”, en sus dimensiones (Panofsky, 1997, p. 85).
58
Con el tiempo, estos conceptos de belleza gestados y desarrollados en
Grecia se trasladarían al Imperio romano, donde con una claridad histórica serían recopilados por Vitruvio en su tratado. En este sentido, la
mímesis, dentro del contexto romano, tendría un carácter de originalidad
bajo la idea de que a través del arte podría superarse a la naturaleza.
En su arquitectura, Roma representaría un proceso complejo que vinculaba una construcción de gruesos muros y robustos contrafuertes, heredada de los etruscos, con estructuras adinteladas tripartitas, de columnas y arquitrabes, obtenidas de los griegos. Y es precisamente en esta
dualidad donde se encontraba la genialidad de los diseñadores, ya que al
vincular dos sistemas estructurales diferentes: arcos, bóvedas y cúpulas
–con revestimientos no estructurales de columnas clásicas–, posibilitaba el desarrollo de nuevas tipologías arquitectónicas, de mayor escala y
complejidad”, … un vínculo entre los órdenes y la caja de mampostería”
(Benevolo, 1967, p. 42).
Marcelo A. Fraile - Arquitectura biodigital
En su tratado, Vitruvio transformaría la geometría en una eficaz herramienta para obtener armonía en sus edificios. En el tercero y cuarto libro,
Fig. 2. De todos los edificios de la ar-
se ocuparía en particular de los órdenes arquitectónicos: una disposición jerárquica en la que solo desarrolla tres de estos: el dórico, sin base
lugar a dudas, el edificio que jugó un
y con estrías en el fuste; el jónico y el corintio, mencionando brevemente
un orden primitivo o “toscano”, y se abstiene de mencionar algo respecto
quitectura clásica, el templo fue, sin
papel trascendental en la sociedad
antigua y se convirtió en una de las
construcciones más significativas.
al orden compuesto.
A partir del uso de los órdenes, se establecería un complejo sistema de proporciones donde era posible relacionar cada una de sus partes entre sí. En
la arquitectura clásica, “…las proporciones eran las que rigidizaban la obra,
pero el módulo era el que hacía la diversidad en las obras; este daba la libertad y hacía que cada edificio tuviese su propio carácter, su propio tamaño, en
definitiva, su propia dimensión” (González González, 1985, p. 35).
Vitruvio había establecido un sistema de proporciones abstractas, cuya
unidad de medida era el módulo, una “…medida arbitraria que fija[ba]
el arquitecto según las conveniencias de cada caso particular” (García
Núñez, 2016, p. 8). Atribuyéndole a los órdenes personalidades ‘humanas’,
transmitía a cada uno de estos género y caracteres: “Veía en el dórico
un arquetipo de ‘las proporciones, la fuerza y la elegancia del cuerpo del
hombre’… Para él, la ‘esbeltez femenina’ caracterizaba al jónico, y el corintio imitaba la ‘ligera figura de una muchacha’” (Summerson, 1979, p. 20).
Cada parte importante del edificio estaba convenientemente proporcionada, y cuando estas tenían su lugar dentro de la simetría total, se obtenía la ‘euritmia’, una armonía de las partes entre sí y con el todo.
Para Vitruvio la arquitectura descansaba en tres cualidades fundamentales, estas eran la “firmita” (la solidez), la “utilitas” (la utilidad) y la “venustas” (la belleza): esto es lo que se conoce como tríada vitruviana, una
imitación en la arquitectura de las relaciones armónicas y equilibradas
existentes en la naturaleza1.
1. En sus escritos, Vitruvio trataba de abarcar no solo lo referente a la arqui-
59
Parte II. Algunas ideas de paradigma y sus ciclos
Del tratado original, solo se recuperaron los textos, las ilustraciones, si las hubo, se perdieron; incidente que
conduciría, más adelante, a diferentes interpretaciones y tergiversaciones en las ediciones posteriores2, que
convertirían los órdenes arquitectónicos en rígidos cánones para definir las virtudes arquitectónicas de la
época. Porque una vez redescubiertos los órdenes, estos serían empleados como herramientas que “…encarnaba[n] toda la sabiduría de la humanidad en el arte de construir” (Summerson, 1979, p. 13). Su uso quedaba
asociado a una construcción gramatical de la arquitectura, necesaria para una correcta y concreta comunicación: utilizando normas racionalizadas de carácter sintáctico, era posible codificar las normas estéticas en “…
un lugar tan inamovible como… las cuatro conjugaciones en la gramática latina” (Summerson, 1979, p. 15).
La construcción albertiana del paradigma clásico
Perdida la naturaleza divina, la arquitectura de mediados del siglo XV buscó sus referentes “…en una geometría cosmológica o antropomórfica… a través de la aplicación de las reglas clásicas de la composición referidas a jerarquía, orden y fin, que conferían una armonía al todo con respecto de las partes” (Eisenman, 1984,
pp. 154-172).
En este sentido, para el historiador inglés John Summerson (1904-1992), el gran logro del Renacimiento fue
“…la reformulación de la gramática de la Antigüedad como una disciplina universal, la disciplina, heredada del
pasado remoto y aplicable a todas las empresas constructivas honorables” (Summerson, 1979, p. 32). Bajo un
espíritu superador, los arquitectos del Renacimiento buscaban un nuevo lenguaje clásico que sistematizara el
conocimiento y permitiera nuevas combinaciones.
De modo que, para Alberti, “…la composición no era un proceso de transformación con un final abierto o neutral, sino más bien una estrategia para arribar a un objetivo predeterminado. Era el mecanismo a través del
cual la idea de orden, representada por los órdenes, era transformada en una forma específica” (Eisenman,
1984, pp. 154-172).
La obra de Alberti y sus posteriores reinterpretaciones constituirían un hito fundamental de la cultura del Renacimiento. En su búsqueda de belleza, su obra revisó y reformuló el corpus teórico necesario para lo que se
avecinaba. No existe tratado de arquitectura que no sea deudor de este, su legado puede rastrearse incluso
hasta el siglo XIX.
60
De igual forma que Vitruvio, Alberti consideraba que un edificio era bello cuando respondía a las proporciones
adecuadas de acuerdo con el modelo de la naturaleza. La belleza se encontraba en la “…concordancia de las
partes, basada en el número y la proporción, según las exigencias de la armonía, que es el principio fundamental de la naturaleza” (Cotofleac, 2009).
De este modo, los artistas se encargarían de imitar la naturaleza, observando la estructura de las plantas y de
los animales, buscando no copiar su apariencia, sino sus leyes. Una representación simbólica de esta, donde
quedaba reflejada su diversidad, armonía y perfección: un cosmos geométricamente ordenado que se expresaba en el microcosmos del hombre vitruviano: una manifestación de los valores clásicos de la Antigüedad
romana, desarrollada en la armonía de sus partes (Cotofleac, 2009).
En este sentido, para Alberti, esta armonía definía lo bello, expresado a través de las concinnitas: “…aquello de
lo que no se puede sacar nada, a lo que no se puede agregar nada, en lo cual no se puede cambiar nada sin
tectura, sino también aquellas habilidades y conocimientos necesarios para los arquitectos: en su primer libro, distingue
las diferencias que existen entre la teoría de la arquitectura –a la que denomina “ratiocinatio”–, de la práctica a la que
denomina “fábrica”. Para Vitruvio, el architekton (nombre griego que recibía el director), se debía encargar de llevar ambos
conceptos en una coexistencia simultánea.
2. En 1511 se publicaría la versión del arquitecto Fray Giovanni Giocondo, de Verona, pero hubo que esperar hasta 1521
para que Cesare Cesariano, uno de los arquitectos del Duomo de Milán, presentase la primera edición del tratado de Vitruvio traducido al italiano, con dibujos deducidos de edificios contemporáneos como exponentes de las normas vitruvianas.
Posteriormente, en 1556, Daniele Barbaro publicaría en Venecia, la cuarta edición del tratado de Vitruvio que contaba con
ilustraciones de Andrea Palladio.
Marcelo A. Fraile - Arquitectura biodigital
descomponer el conjunto” (Zátonyi, 2002, p. 106). Las concinnitas, equivalían a la symmetria griega, que, en arquitectura, presentaba tres elementos constitutivos: numerus, finitio, y collacatio. Numerus correspondía con una
aritmética proporción de las partes de cada obra; finitio correspondía a su forma geométrica; y collacatio se refería
a su unión con el entorno (Tatarkiewicz, 2004).
Un ejemplo interesante al respecto es la fachada de la iglesia de Sant’ Andrea en Mantua, de 1456, en
donde Alberti utilizaría esta estructura lógica para adaptar los elementos del templo clásico de columnas
y dintel, y concebir las paredes como muros rellenos. Para esto, Alberti no solo adaptaría la idea de arco
triunfal para la fachada oeste, sino que también la llevaría al interior para tomarla como modelo para las
arcadas de las naves (Summerson, 1979, p. 30). Luego lo revestiría con mármoles de colores en forma de
figuras geométricas simples.
A partir de una aritmética práctica, derivada de las obras del matemático italiano Leonardo de Pisa (Fibonacci) (1170-1240), Alberti entenderá la belleza en la arquitectura como un sistema modular de proporciones, un
proceso racional del proyecto, fijado a través del diámetro de la columna, donde cada parte del edificio estaría
en directa relación con el resto; una concepción platónica de subdivisión espacial de partes, matemáticamente
proporcionales. La imagen perfecta de la creación de Dios: un esquema de valor absoluto y racional que definía los cánones clásicos de belleza.
De acuerdo con el sistema aristotélico, Alberti establecía una clasificación desde lo general a lo particular en
el planteo de sus ideas, como un reflejo de la armonía de la naturaleza donde lo macro y lo micro se estructurarían a través de variables matemáticas: conocido el módulo, es posible obtener el templo a través de una
suma de sus partes.
Desde este punto de vista, Alberti había transformado al orden en un instrumento paramétrico espacial: medida y generador de espacios y volúmenes coordinados sintácticamente. Un sistema de perfeccionamiento de
los resultados mediante experiencias sucesivas y reglas fijas.
Para el arquitecto estadounidense Peter Eisenman (1932), el siglo XV marcaba el nacimiento del paradigma
clásico: antes de este, no existía una concepción del tiempo como una proyección hacia adelante.
Bajo una realidad temporal, se comenzaría a construir el lenguaje de la arquitectura de occidente. Una arquitectura que hundía sus raíces en el establecimiento de valores incuestionables y apriorísticos: una irrefutabilidad eterna, divina y natural, donde lo clásico no buscaba representar ni simular nada, lo clásico simplemente
era (Eisenman, 1984, pp. 154-172).
A partir de esto, tres serán los elementos que caracterizarán este nuevo paradigma, estos son: el valor de
la antigüedad como referente para la inspiración; el concepto de sintaxis de los órdenes clásicos; y el papel
incuestionable de los tratados como referentes teórico-prácticos.
El valor de la Antigüedad como referente para la inspiración
A través de un carácter temporal, único e irrepetible, la arquitectura del Renacimiento era concebida a través
de las aportaciones de la historia y de las huellas y fragmentos de la memoria: una imitación de los edificios
griegos y romanos, donde “…el mensaje del pasado era utilizado para verificar el significado del presente”
(Eisenman, 1984, pp. 154-172).
Desde este punto de vista, los edificios clásicos obtendrían su valor “…representando una arquitectura que
ya tenía un valor precedente, y eran simulacros (representación de representaciones) de edificios antiguos”,
en este sentido, “El mensaje del pasado sería utilizado para verificar el significado del presente” (Eisenman,
1984, pp. 154-172).
61
Parte II. Algunas ideas de paradigma y sus ciclos
Una correspondencia entre lenguaje y representación, donde solo era
necesario identificar el espíritu de la arquitectura dominante para saber
qué estilo era apropiado copiar y, de este modo, expresar o revelar ese
espíritu (Eisenman, 1984, pp. 154-172).
No es casual que Alberti reconociera el verdadero valor de las ruinas
como pieza clave de esta nueva arquitectura, aprovechando cada oportunidad para que los vestigios del pasado emergieran con gran fuerza.
De ahí que, a través de la observación de los monumentos romanos que
todavía se mantenían en pie, León Battista Alberti pudo desarrollar las
piezas faltantes del tratado de Vitruvio, añadiendo incluso a los cuatro
órdenes conocidos, un quinto: el compuesto, que combinaba rasgos del
orden jónico y del corintio. (Summerson, 1979, p. 17).
Ejemplo de esto es el diseño de la fachada de la iglesia de San Francisco de Rímini, también llamada templo Malastestiano, construido en
1450.
Para el diseño, Alberti tomaría como idea de origen el arco romano de
la ciudad, y desarrollaría una fachada dividida en tres partes: en la parte
central ubicaría un gran arco de medio punto que encuadraba la puerta
principal, y las dos partes laterales quedarían elevadas por un basamento y dos arcos menores ciegos que enmarcarían los sepulcros de
Segismundo e Isotta. De este modo, Alberti superponía a la fachada lisa
un sistema de arcos, pilastras y arquitrabes clásicos: esto recibió el nombre de ornamentum, un elemento auxiliar de la belleza innata, al que le
dedicaría cuatro de los diez libros de su tratado y que sirvió de canon
para la arquitectura de las generaciones posteriores.
Fig. 3. Iglesia de Sant’ Andrea en Mantua. 1456. Alberti no solo adaptaría la
idea de arco triunfal para la fachada
oeste, sino que también la llevaría al
interior para tomarla como modelo
62
para las arcadas de las naves (Summerson, 1979, p. 30).
Señala Alberti:
“Si no me equivoco, aplicando ornamentos, empleando afeites y
ocultando los aspectos que resultaran desagradables, o arreglando y haciendo resaltar los más hermosos, habrían conseguido que
lo desagradable resultara menos ingrato y lo más hermoso más
placentero. Si ello es así, el ornamento puede definirse como una
especie de ayuda secundaria de la belleza, un elemento complementario. De lo expuesto aquí se evidencia, en mi opinión, que la
belleza es una especie de característica propia e innata de todo
cuerpo que se considere hermoso; el ornamento, en cambio, es por
naturaleza algo accesorio, un aditamento más que un elemento natural” (Alberti, 1485).
El concepto de sintaxis de los órdenes clásicos
Durante la etapa clásica, el orden representaba la expresión perfecta
de la belleza, un sistema numérico-proporcional cuya unidad básica era
el semidiámetro de la columna tomado en la proximidad de la base: un
valor universal denominado módulo, a partir del cual se deducía el resto
de las dimensiones de la composición: fuste, capitel, base, entablamento, etcétera.
Marcelo A. Fraile - Arquitectura biodigital
Mediante este sistema, se aseguraban que todas las partes estuvieran proporcionadas y en armonía con el
conjunto: era el concepto de simetría griega, la recíproca relación del todo con las partes. Cualquier alteración
de algunas de estas hubiera obligado a modificar el resto de los elementos de la composición, por ejemplo:
“…si ensanchamos el hueco en 30 cm ¿qué ocurriría? Pues que la corona del arco se elevaría unos 15 cm; y
suponiendo que quisiera conservar la distancia existente entre el arco y el entablamento, este se elevaría otros
15 cm, con lo cual las columnas tendrían que ser 15 cm más altas y las reglas del orden …obligarían a incrementar las dimensiones de todos los demás elementos que integran el todo” (Summerson, 1979) .
Posteriormente, durante el siglo XV, el Renacimiento italiano consideraría las proporciones de los órdenes bajo
la concepción pitagórica de “todo es número”, una vuelta a las analogías con la música y el cuerpo humano.
Con base en la geometría, Alberti desarrollaría un sistema de proporciones que corregía las dimensiones
básicas del espacio, a través de un procedimiento de relaciones aritméticas simples. Un axioma apriorístico
materializado mediante una arquitectura considerada como ciencia.
En este sentido, para Alberti, las proporciones de los órdenes eran el único elemento capaz de concebir la
belleza en una obra de arquitectura: el observador percibiría la perfección del objeto creado como una parte
integral de este, “…por lo que no tiene la necesidad de añadir ni quitar nada; [una] belleza intocable” (González
González, 1988, p. 70).
Como antes vimos, Alberti sería el encargado de reunir los órdenes arquitectónicos de Vitruvio –el dórico, el
jónico, el corintio y el toscano–, y añadir un quinto: el compuesto, resultado de las observaciones de las ruinas
romanas.
Sin embargo, “la actitud de Alberti seguía siendo perfectamente objetiva y vitruviana”. Para Summerson, sería
Sebastiano Serlio “quien casi un siglo después, inici[aria] realmente la larga carrera de la canonización de los
órdenes clásicos en una autoridad indiscutible, simbólica y casi legendaria” (Summerson, 1979, p. 14).
Serlio, conocedor de las reglas de Vitruvio, “compilaría la primera gramática arquitectónica completa y plenamente ilustrada del Renacimiento”. Su tratado comenzaba con un grabado de los cinco órdenes arquitectónicos, “… alineados según su delgadez relativa, …El rechoncho toscano está a la izquierda; viene después el
dórico, similar, pero ligeramente más esbelto; el elegante jónico; el altivo y refinado corintio, y finalmente, el
aún más alargado y decorado el compuesto” (Summerson, 1979, p. 15).
Con gran detalle, Serlio desarrollaría las dimensiones de cada uno de los órdenes, sus partes, y al igual que
antes lo había hecho Vitruvio, los personalizaría y recomendaría qué orden utilizar de acuerdo con el tema del
encargo:
“El dórico …debe usarse en iglesias consagradas a los santos más extrovertidos: San Pablo, San Pedro, San
Jorge… el jónico a los santos y santas matronales –ni demasiado duros ni demasiado tiernos– y también a los
hombres cultos; el corintio a las vírgenes, y muy especialmente a la Virgen María… mientras que considera el
toscano muy adecuado para fortalezaz y prisiones” (Summerson, 1979, p. 15).
Ahora bien, los órdenes de Serlio, aunque reflejaban los órdenes de Vitruvio, estaban basados en cierta medida en sus propias observaciones de los monumentos clásicos. Recordemos que el texto de Vitruvio presentaba lagunas que solo mediante las ruinas se podían llenar. Y dado que los órdenes variaban de una obra a otra,
en realidad lo que Serlio hacía era extraer de estos “…los rasgos que considera[ba] más idóneo[s] para cada
orden a fin de configurar su corintio ideal, su jónico ideal, etcétera” (Summerson, 1979, p. 17).
Tiempo después, (1562), los órdenes propuestos por Serlio serían reformulados, recodificados y racionalizados por Vignola, y se los transformaría en conceptos matemáticos fáciles de reproducir sin perder su lógica.
63
Parte II. Algunas ideas de paradigma y sus ciclos
Fig. 4. Templo Malastestiano. Alberti
desarrollaría una fachada dividida en
tres partes: en la parte central ubicaría
un gran arco de medio punto que encuadraba la puerta principal, y las dos
partes laterales quedarían elevadas
por un basamento y dos arcos menores ciegos.
En su libro, Vignola establecía como módulo el diámetro inferior de la
columna, lo que lo convertía en medida de todo el edificio, una relación
de proporciones constantes para cada una de sus partes. En este sentido, las reglas de Vignola constituían un manual con indicaciones simples y precisas de cómo utilizar los órdenes. Una regla coherente que
permitía flexibilizar sus aplicaciones.
Por su parte, Palladio, conocedor del tratado de Vitruvio, conservaría los
órdenes arquitectónicos, pero los utilizaría de un modo que le permitió
crear una nueva arquitectura. Tomaría los edificios de la antigüedad
romana como modelos, pero a diferencia de Serlio y de Vignola, los
depuraría, los “corregiría”, imaginando cuales serían los órdenes más
adecuados para cada caso (Arnau Amo, 2008).
64
Palladio establecería los órdenes como patrones de proporción con la
arquitectura, a través de un método organizado en tres partes: en primer
lugar, la investigación, es decir, la observación, el dibujo y la medición
de la antigüedad; en segundo lugar, la normalización, mediante la abstracción de los datos obtenidos que normalizaba en un lenguaje; y finalmente en tercer lugar, la aplicación de estas normas mediante ejemplos
de su propio repertorio (Arnau Amo, 2008).
A mediados del siglo XVII, se iniciaría en Francia una serie de cuestionamientos con respecto a los órdenes y si estos debían ser utilizados o no
en los edificios modernos. En un intento por arrojar luz sobre este eterno
conflicto, se crearía, en 1671, la Real Academia de Arquitectura, una
empresa verdaderamente ardua que buscaría establecer una doctrina
global sobre la edificación, preservando su tradición clásica: un modelo
que habría de ser imitado en todo el mundo.
Casi al mismo tiempo, el arquitecto francés Claude Perrault, a través de
sus escritos, cuestionaría fuertemente el mítico postulado del Renacimiento por el cual la belleza de un edificio estaba garantizada a través
de la exactitud y precisión en el uso de los órdenes clásicos. Para el
Marcelo A. Fraile - Arquitectura biodigital
tratadista francés, tomar al hombre como referencia para definir el orden era un error, ya que la arquitectura
no tiene nada que ver con la mímesis de la naturaleza, dado que el cuerpo –como la columna– son muy variables, lo que los hace inadmisibles para poder deducir un sistema de proporciones ideales. Es por esto que no
existe una regla absoluta, la belleza es solo un criterio, una “fantasía subjetiva”, una percepción variable, que
depende de múltiples factores tales como la moda, la tecnología disponible, la educación o el sitio.
Perrault intentaría un acercamiento a los conceptos de orden planteados en el tratado de Vitruvio, desdoblando
la definición a partir de dos elementos no relacionados: por un lado, la proporción que determinaba las partes
de una columna –como son el capitel, la base o el arquitrabe–; y por el otro, la forma que determinaba su uso,
como el dórico, el jónico o el corintio.
En este sentido, Perrault consideraba que el orden arquitectónico real sólo era posible de obtener combinando
ambas operaciones en una estructura doble, en una única relación proporcional: una progresión numérica
simplificada, un conjunto de valores modulares para cada orden, con base en números enteros que representaran los valores medios calculados a partir de los sistemas conocidos. Una especie de regla de aproximación,
reunida de manera sencilla, en la cual podrían basarse los arquitectos durante la tarea de proyectar.
A finales del siglo XVIII, el relativismo histórico ponía en discusión el valor de los órdenes como lenguaje universal:
un nuevo diseño codificado a partir de la razón buscaba desarrollar una arquitectura que representara la verdad,
lejos de la visión renacentista de armonía y orden divino (Eisenman, 1984).
En su tratado, el abate Laugier desarrollaba el origen de la arquitectura bajo un enfoque naturalista: describía
lo que él llamaba la “cabaña primitiva”, en la cual las ramas y troncos que la conformaban sugerían las columnas y frontones que después recrearían el lenguaje arquitectónico clasicista (Maderuelo, 2008, p. 364).
Para Laugier, la arquitectura debía estar acorde con la razón, una arquitectura respetuosa de las leyes naturales y relacionadas con las simetrías y proporciones de la arquitectura clásica griega: en franca oposición
al estilo barroco y rococó. En consecuencia, Laugier consideraba que el orden no era solamente un objeto
ornamental, sino que también creía que era constitutivo.
Implícitamente, en sus afirmaciones Laugier establecía que, por una parte, la arquitectura se encontraba
constituida por elementos tales como “…columnas, entablamentos, frontones, paredes, puertas y ventanas.
Estos elementos son vistos, por tanto, como partes esenciales, como piezas constitutivas del edificio, no como
aditamentos meramente encaminados a conferirle orden, articulación y belleza”; en tanto que por otra parte,
“…pese a la reducida cantidad de elementos de que dispone, la arquitectura puede dar respuesta a las más
65
variadas –y nuevas– solicitaciones en virtud del número potencialmente infinito de combinaciones de que esos
elementos son susceptibles” (Hereu, Montaner, & Oliveras, 1999, p. 21).
Finalmente, el golpe de gracia se produciría a principios del siglo XIX, bajo una estricta racionalidad, las nociones tradicionales de los órdenes serían desacreditados por el parisino Jean Nicolás Louis Durand, quien
tampoco aceptaba las teorías de Cordemoy, Laugier y de otros tratadistas que consideraban los órdenes bajo
una mirada universal. Para Durand, los órdenes “…no forman, en modo alguno, la esencia de la arquitectura;
que el gusto se espera de su empleo y de la decoración resultante, no existe; que la propia decoración es una
quimera y los gastos que requiere, una auténtica locura” (Benevolo, 1989).
El tratado de Durand, difundirá la llegada de una nueva concepción de la arquitectura:
“sus figuras se reconocen por el grafismo, [que] anuncian toda la producción de los ingenieros del siglo
XIX.
Aparecen ya claramente todos los caracteres: la manera de componer por adición mecánica, la independencia entre el conjunto estructural y el acabado de los elementos, que reducen al mínimo el arbitrario del proyectista” (Benevolo, 1989, p. 69).
Parte II. Algunas ideas de paradigma y sus ciclos
El papel de los tratados
Entre los diversos géneros literarios importados de la Antigüedad, se
encontraba el Tratado de arquitectura, cuyo principal fin fue el de servir
de instrumento para la formación de los arquitectos. Su historia ha sufrido una evolución y transformación a lo largo de 400 años, hasta su
extinción definitiva a comienzos del siglo XX.
Los tratadistas se encargaron de estudiar las proporciones de los órdenes clásicos, obtenidas a través del relevamiento de los monumentos
griegos y romanos, para luego sistematizarlas mediante el cálculo matemático.
En esencia, los tratados eran sistemas cerrados, ordenados de lo general a lo particular, y escritos con un lenguaje claro y sencillo, para ser
entendido por profesionales de formaciones muy dispares.
Fig. 5. Serlio, conocedor de las reglas
de Vitruvio, “compilaría la primera gramática arquitectónica completa y plenamente ilustrada del Renacimiento”.
(Summerson, 1979, p. 15).
Y si bien la estructura de los tratados variaba de acuerdo con el tratadista, por lo general estos estaban constituidos por dos partes distintas y
complementarias: una primera parte más teórica, en donde se desarrollaban “las reglas del arte”, que incluían conocimientos de aritmética y de
geometría euclidiana, fórmulas exactas, racionales y armónicas; y una
segunda parte práctica, generalmente en forma de láminas grabadas,
que incluía los órdenes clásicos extensamente desarrollados por sus
autores. Estas ilustraciones constituían una parte esencial del libro, ya
que a partir de estas era fácil entender los textos.
De este modo, el tratado cumplía una función práctica, pero sin olvidar
los aspectos teóricos-normativos y de difusión: un corpus general de
cómo debía ser la arquitectura de ese período.
66
Muchos fueron los textos de arquitectura producidos por la cultura greco-romana, sin embargo, el único que ha llegado hasta nosotros es el
Tratado de Marco Vitruvio Polión, De architectura libri decem, escrito en
el siglo I aC en honor del emperador Augusto, fue redescubierto en el
monasterio de Saint Gall por Poggio Bracciolini en 1414.
De carácter enciclopédico, el Tratado de Vitruvio constituyó una síntesis
de los conocimientos teórico-prácticos. Una referencia de primera mano
de la Antigüedad grecorromana. Una compilación ordenada y sistemática de los conocimientos sobre la construcción de su época que se transformaría en una referencia ineludible para los artistas del Renacimiento.
Al respecto, uno de estos tratados fue Re Aedificatoria, del arquitecto
genovés León Battista Alberti (1404-1472), publicado en 1485, en Florencia.
Al igual que el Tratado de Vitruvio, el Tratado de Alberti estaba compuesto por diez libros en donde reunía todos aquellos aspectos teóricos y prácticos inherentes a la profesión de la arquitectura. El tratado
fue escrito en latín como un modo de establecer su propio vocabulario
de la arquitectura, a diferencia del de Vitruvio que estaba escrito en un
Marcelo A. Fraile - Arquitectura biodigital
lenguaje híbrido de latín y griego. Para la profesora catalana Ana Belén
Pérez Onecha, su título De la edificación, puede deberse a la necesidad
de distanciarse del Tratado de Vitrubio y remarcar su enfoque mucho
más técnico (Perez Onecha, 2012).
Con la publicación del Tratado de Alberti, el arquitecto cantero de los
tiempos de Vitruvio sería reemplazado por el arquitecto humanista: un
intelectual encargado de transmitir sus ideas a los constructores a quienes se les confiaría la materialización de la obra: “el primero posee la
conciencia y se reserva la teoría, rehusando confundirla con la práctica”
del segundo (Benevolo, 1967, p. 87). A partir de entonces, la disciplina
entraría en una nueva era del lenguaje escrito: una sistematización de la
arquitectura que requeriría de saberes previos, de la teoría y de reglas
explícitas para construir (Sarquis, 2004, p. 48).
El proyecto, ahora definido de antemano, jugaría un papel clave en esta
Fig. 6. Perrault intentaría un acer-
renovación al convertirse en un preciso instrumento para la transmisión
de las ideas. El lenguaje quedaba comprometido con la representación
“…ya que no era ‘el significado’ sino ‘un mensaje’ lo que se mostraba en
el objeto” (Eisenman, 1984, pp. 154-172). Cada dibujo, cada maqueta,
debería comunicar lo más claramente posible el proyecto a su constructor: “…haciendo que los problemas formales tomasen la mayor importancia de modo que solamente pudieran ser resueltos por los arquitectos
con su nuevo instrumental” (Corona Martínez, 1998, p. 9).
camiento a los conceptos de orden
A partir del Tratado de Alberti, una nueva generación de tratados buscaría codificar el mensaje clásico, en un proceso por redefinir los parámetros de la nueva arquitectura. Un cuerpo teórico de saberes diversos
planteados en el tratado de Vitruvio,
desdoblando la definición a partir de
dos elementos no relacionados: por
un lado, la proporción que determinaba las partes de una columna –
como son el capitel, la base o el arquitrabe–; y por el otro, la forma que
determinaba su uso, como el dórico,
el jónico o el corintio.
y complejos que poco a poco se fueron especializando y diversificando.
“Pero lo que es la belleza y lo que es el ornato en sí mismo, y qué
diferencia hay entre ambas cosas, quizá lo entenderemos mejor con
el ánimo, pues no me será fácil explicarlo con palabras. Pero para ser
breves la definiremos de este modo y diremos que la belleza es un
concierto (concinnitas) de todas las partes reunidas con proporción
y razonamiento en el conjunto en que se encuentren, de manera que
no se pueda añadir, quitar, o cambiar ninguna cosa que no sea para
empeorarlo” (Alberti, 1485).
Uno de los pioneros en el manejo de las ilustraciones dentro de los tratados fue el arquitecto italiano Sebastiano Serlio (1475-c.1554), quien a
partir de su tratado I Sette libri dell’architettura3, publicado en Venecia
en 1540, utilizaría una serie de grabados como información complementaria a los textos, algo de lo que habían carecido los tratados de Alberti
y de Vitruvio. Una serie de láminas en donde Serlio codificaría los cinco
ordenes clásicos. En su tratado, el arquitecto italiano representaba las
ruinas de la Antigüedad romana y edificios de su época para que sirvieran como ejemplos prácticos de aprendizaje. Un repertorio de tipologías
arquitectónicas romanas dibujadas detalladamente y que servían como
estímulo a la imaginación de los arquitectos del momento.
3. Los siete libros de la Arquitectura.
67
Parte II. Algunas ideas de paradigma y sus ciclos
Los siete libros de arquitectura de Serlio se transformarían en un manual didáctico, una guía sistematizada sobre los temas prácticos de la
arquitectura, necesario para que los constructores pudieran dar una respuesta a los problemas que se les presentaban en forma cotidiana. Una
edición crítica de su contenido, cuyo enfoque teórico-práctico lo llevaría
a elaborar sus propias hipótesis, con abundantes notas y opiniones.
El tratado de Serlio alcanzaría gran difusión en los siglos posteriores al
ser traducido a diversas lenguas y extenderse por países como Francia,
España, Alemania, entre otros.
Veintidós años después de la publicación del tratado de Serlio, el arquitecto italiano Giacomo Barozzi da Vignola (1507-1573) publicaría Regola
Fig. 7. Vignola establecía como módulo el diámetro inferior de la columna,
lo que lo convertía en medida de todo
el edificio, una relación de proporciones constantes para cada una de sus
partes.
delli cinque ordini d’architettura4. Uno de los tratados más conocidos y
utilizados en la historia de la arquitectura. En poco tiempo se constituiría
en un reemplazo del libro IV de Serlio y se transformaría en un auténtico
manual sobre los órdenes.
A diferencia de otros tratados como el de Alberti o el de Serlio, el de
Vignola se componía de abundantes ilustraciones: 29 láminas acompañadas de una breve explicación para su utilización práctica.
Vignola racionalizaría la composición de los órdenes mediante la introducción de un sistema numérico-proporcional: un sistema modular que
permitía el dimensionado de cada una de las partes de los órdenes y la
proporción general del conjunto. En este sentido, las Regola delli cinque
ordini d’architettura, se transformaría en un verdadero vademécum, una
Fig. 8. Palladio, inspirándose en Vitruvio, investigaba las ruinas del pasado
serie de sugerencias necesarias para no equivocarse y producir un gran
número de obras correctas, aunque frías y acompasadas (Vagnetti, 1997,
p. 250).
que tomaba como guía y modelo, demostrando un profundo conocimiento
de la arquitectura clásica, ciñéndose
“…a la Regola de Vignola hasta en las
68
ilustraciones”.
Contemporáneo con Vignola, en 1570, el arquitecto veneciano Andrea di
Pietro della Góndola, mejor conocido como Andrea Palladio, escribiría
Il quattro libri dell`architettura5: publicado en Venecia. El tratado, escrito
en latín vernáculo, presentaba una organización que serviría de modelo
para los tratados posteriores.
Inspirándose en Vitruvio, investigaba las ruinas del pasado que tomaba como guía y modelo, demostrando un profundo conocimiento de la
arquitectura clásica, ciñéndose “…a la Regola de Vignola hasta en las
ilustraciones, que seguían la misma disposición metódica… 21 láminas
ilustran lo esencial de los cinco órdenes” (Arnau Amo, 2008). Sin embargo, a diferencia de Vignola, utilizaba para ilustrar su tratado: “…plantas y
alzados de muchos edificios del pasado”.
Y aunque Bramante no pertenecía al período clásico, esto no le impidió
citarlo como tal, considerándolo el único continuador de la Antigüedad.
Como tampoco fue un obstáculo utilizar sus propias obras como ejemplos, a la altura de los edificios de la Antigüedad: obras corregidas, regularizadas e idealizadas, como un recurso teórico de inspiración.
4. La regla de los cinco ordenes de Arquitectura, 1562.
5. Los cuatro libros de Arquitectura, 1570.
Marcelo A. Fraile - Arquitectura biodigital
El Tratado de Palladio tendría especial impacto en las islas británicas, en Estados Unidos, en China y en Australia, donde sus teorías se transformarían en complejas herramientas de arquitectura. Esto quizás se deba a
la claridad de sus mensajes que serían aplicados, bajo un proceso de experimentación, durante el neoclásico,
por arquitectos como Íñigo Jones, Christopher Wren o Nicholas Hawksmoor: una búsqueda de belleza a través de las proporciones geométricas en un ámbito apasionado y polémico que se constituirá en soporte del
pensamiento arquitectónico.
Con el tiempo, y en especial durante el Iluminismo, se incorporarían diferentes tipos de tratados, manuales y
diccionarios de arquitectura, que ocasionarían interminables debates en torno a la estética de la arquitectura,
donde las rígidas normas comenzarían a resquebrajarse.
Para el historiador del arte francés Louis Hautecœur (1884-1973), la gran pregunta era descubrir si la belleza
era la consecuencia de reglas válidas en sí o si nos venía impuesta simplemente por el prestigio de los antiguos. Muchos académicos, incluido François Blondel, “…creían que existía una belleza en sí, una especie de
idea platónica, de la que las creaciones humanas eran una sombra, belleza divina de la que la belleza arquitectónica era una hipóstasis” (1997, p. 286).
Buscando una solución a esta cuestión, la Real Academia de Arquitectura propuso al arquitecto francés Claude Perrault (1613-1688) la tarea de realizar una nueva traducción al francés del Tratado de Vitruvio. En 1673,
Perrault publicaría Les dix livres d’ architecture de Vitruve, corrigez et traduits nouvellement en français avec
des notes et des figures, en donde criticaba la arbitrariedad de considerar la belleza asociada al cuerpo humano. Alegando además que las proporciones en la arquitectura son variables.
Apenas publicado, el Tratado de Perrault comenzaría a recibir fuertes críticas, esto se debía en parte a que
durante mucho tiempo, para algunos teóricos, los textos de Vitruvio y el concepto de arquitectura clásica eran
considerados equivalentes. Uno de los más acérrimos opositores a Perrault fue François Nicolás Blondel
quien, como respuesta al Tratado de Perrault, escribiría Cours d’architecture6, publicado en 1675, representando los valores más significativos de la tradición. Para Blondel, “La arquitectura posee una belleza objetiva
que reside en la naturaleza misma de las cosas, siendo realizada por el arquitecto, pero no inventada por él”.
La belleza será “…independiente del tiempo y de las circunstancias” (Tatarkiewicz, 2004), y consistirá en una
disposición proporcionada de partes.
Ocho años después, en 1683, Perrault escribiría un segundo tratado sobre los órdenes, Ordonnance des
cinq espèces de colonnes selon la mèthode des anciens. En este tratado, Perrault expondría el concepto
de belleza arquitectónica bajo dos componentes casi simétricos: por un lado, un componente objetivo que el
llamaría “belleza positiva” y que se encontraba lejos del concepto de proporciones, ya que abarcaba lo útil,
lo cómodo, lo saludable y lo sólido que posee un edificio; y por el otro, una belleza subjetiva, que él llamaría
“belleza arbitraria”, y que correspondería con lo bello, lo que gusta a la mayoría de los hombres con educación,
independiente de cualquier ley de la naturaleza, una belleza variable, que cambia a través del tiempo y tiene
que ver con la moda.
Tiempo después, los aspectos constructivos y funcionales propuestos por Perrault serían desarrollados por
Michel de Fremin en sus Mémoires critiques d’architecture, publicado en 1702. Una postura que permitió definir la importancia del uso como factor determinante en la arquitectura.
Cuatro años después, en 1706, es publicado el Nouveau traité de toute l’architecture del abate francés Jean
Louis de Cordemoy (1655-1714), un nuevo tratado sobre los órdenes que seguiría lo planteado por Fremin. En
este sentido, Cordemoy pretendía acabar con la utilización decorativa de los órdenes y con lo que él llamaba
“arquitectura en relieve”, para que recuperasen su función original.
6. Clases de arquitectura, 1675.
69
Parte II. Algunas ideas de paradigma y sus ciclos
En 1753, el jesuita y teórico francés Marc Antoine Laugier (1713-1769)
publicaría Essai sur l´Architecture7, en donde por primera vez se ponía
en duda la autoridad de los órdenes. Para Laugier, los órdenes no debían utilizarse solo como una decoración, la belleza de la arquitectura
radicaba en la aplicación racional de los elementos, él “…deseaba que
los arquitectos lo utilizasen con el mismo sentido de verdad constructiva
que alentaba en los puntales y vigas de la cabaña primitiva” (Summerson, 1979, p. 69).
Desde este punto de vista, la cabaña primitiva había sido la primera
morada sagrada, un regalo de los dioses para los hombres que, con su
sabiduría, enseñaban el modo de construcción. Esta concepción establecía un paso de la cabaña primitiva al templo, para perfeccionarlo en la
versión en madera del dórico, versión que luego fue copiada en piedra,
hasta establecerse lo que nosotros conocemos como órdenes. Un modelo para ser imitado por las generaciones posteriores.
No obstante, el concepto de cabaña primitiva era una especulación teórica sin fundamentos arqueológicos y apoyada superficialmente en textos
especulativos, con una fuerte inclinación clasicista. En su concepción
más abstracta, bajo una doctrina racionalista, llevaba implícita la idea de
que la arquitectura debía imitar a la naturaleza negando la existencia de
reglas absolutas.
Fig. 9. Para Laugier, los órdenes no
debían utilizarse solo como una decoración, la belleza de la arquitectura radicaba en la aplicación racional
de los elementos, él “…deseaba que
los arquitectos lo utilizasen con el
mismo sentido de verdad constructiva que alentaba en los puntales y
vigas de la cabaña primitiva” (Sum-
70
merson, 1979, p. 69).
Posteriormente, en 1802, Durand escribiría Précis de lecons d’Architecture
donnés a l’Ecole Polytechnique8, un compendio de sus lecciones impartidas
en la Ecole Polytechnique de París para sus alumnos de ingeniería militar.
En su método, Durand sintetizaba algunos de los planteos más importantes a finales del siglo XVIII: un sistema clásico de composición estandarizado para usarse en el proyecto arquitectónico y que se mantendría vigente durante todo el siglo XIX.
Gracias a su simplicidad, versatilidad y aparente neutralidad, su método se constituiría en una base segura de operatividad que permitiría
asumir, sin grandes complicaciones, incesantes innovaciones técnicas,
tipológicas y formales (Hereu et al., 1999, p. 23).
De este modo, Durand elaboraría un método de proyección sistemática
de fácil aplicación práctica a través de la resolución de dos tipos de problemas: por un lado, aquellos relacionados con la ‘conveniencia’ –dada
cuando se obtiene solidez–, la salubridad y la comodidad; y por el otro,
aquellos relativos a la ‘economía’, eficiencia y planificación clara del proyecto y sus métodos de ejecución, mediante la simetría, la regularidad
y la sencillez.
El concepto de razón se convirtió en el centro de la nueva arquitectura:
“Si una arquitectura ‘parecía racional’ –es decir, representaba la racionalidad–, se creía que representaba la verdad” (Eisenman, 1984, pp.
154-172).
7. Ensayo sobre la arquitectura, 1753.
8. Compendio de lecciones de arquitectura, 1802.
Marcelo A. Fraile - Arquitectura biodigital
Para Durand, el proyecto debía ser elaborado en planta, que era la única solución correcta, considerando ridículo aquellos arquitectos que comenzaban sus diseños desde la fachada.
El sistema establecido por Durand partía de un programa preestablecido de tres etapas: en la primera, el diseñador planteaba un análisis
del programa y del sitio en donde se establecía una descripción de los
elementos con sus propiedades, formas y proporciones (¿el edificio será
un bloque macizo o estará ahuecado por patios?); en la segunda parte,
se definían los métodos utilizados para vincular los elementos de cada
fragmento del edificio (¿cuáles serán sus partes principales y cuales sus
secundarias? ¿cuál es el número y tamaño de cada caso? ¿cuáles son
sus posiciones absolutas, y relativas?); y finalmente, en la tercera parte,
el arquitecto establecía el diseño de los elementos singulares, de los
detalles, y de los tipos constructivos.
Todo este proceso era organizado bajo una rigurosa simetría axial, capaz de adaptarse a casi cualquier programa de edificación. Para ello,
inicialmente se trazaban los ejes principales y los ejes secundarios y se
generaba una grilla modular que era usada como base para ordenar y
ubicar todos los elementos de arquitectura, muros, estructuras, e instalaciones. Una propuesta con base geométrica, resultado de un esquema
matemático; una organización en trama alrededor de varios patios interiores que garantizarían la funcionalidad del edificio.
Fig. 10. Para Durand, el proyecto debía ser elaborado en planta, que era
la única solución correcta, considerando ridículo aquellos arquitectos
que comenzaban sus diseños desde
la fachada.
En el tratado de Durand, los órdenes son sustituidos por soluciones racionales de sus partes a los problemas funcionales y constructivos. Función y construcción son elementos determinantes en la arquitectura de
Durand, que lejos de la tradición clásica, se transformaría en un planteamiento racional de la modernidad y ejercería una enorme influencia en
toda una generación de arquitectos durante el siglo XIX.
Para Durand, “Los elementos son para la Arquitectura lo que las palabras para el lenguaje, como las notas para la Música, sin su perfecto
conocimiento es imposible ir adelante” (Corona Martínez, 1998, p. 19).
En esencia, el concepto de composición de Durand se trataba de “…
relacionar partes para formar un todo, decidir cuál ha de ser la relación
entre esas partes, crear la estructuración del edificio futuro” (Corona
Martínez, 1998, p. 19).
Una racionalidad de la arquitectura donde el concepto de carácter de
una obra no es estático, sino que aparece como uno de los objetivos de
la creación proyectual. A través de los procesos compositivos, el pensamiento clásico centraba su atención en las leyes que regían y estructuraban la forma del edificio. Una primacía de las leyes geométricas, que
ordenaba y componía las partes entre sí y estas con el todo. Un conjunto
de elementos previamente definidos y conjugados que, relacionados coherentemente, brindaban armonía, unidad y proporción a un edificio, de
acuerdo con los preceptos clásicos de belleza.
71
Parte II. Algunas ideas de paradigma y sus ciclos
La estructuración del proyecto permitía el desarrollo de formas complejas, una composición controlada a través de un sistema de partes vinculadas y ordenadas mediante reglas geométricas y valores capaces de
desarrollar un objeto ‘bello’.
La arquitectura de Durand revistió de gran trascendencia y se constituyó
en la sistematización de un nuevo modo de pensar arquitectónico. Un
sistema geométrico racional, bajo una mirada positivista, que creía en
el papel de la tecnología como herramienta necesaria para modificar las
actividades del hombre de una manera más profunda, en concordancia
con la complejidad de los nuevos problemas.
La crisis del paradigma clásico
A finales del siglo XIX, el mundo había cambiado: luego de años de profundas crisis estilísticas, las viejas composiciones clásicas heredadas de los
griegos y de los romanos llegarían a su final: de este modo, una serie de
cuestiones referentes a la forma arquitectónica sería dejada de lado para
dar paso a otras cuestiones relacionadas con la tecnología, la industrialización, la planificación y la producción en serie (Summerson, 1979, p. 80).
Próximo al fin, se comenzaría a vivir un momento en que los valores
de la arquitectura clásica se consideraban inciertos. El debate sobre el
orden y el ornamento se convertiría en uno de los puntos de referencia
para conformar una nueva arquitectura.
Para el arquitecto británico Joseph Rykwert (1926), lo clásico había implicado lo atemporal, “…evocaba la idea de ‘antiguo y ejemplar’ y sug[ería] ‘autoridad y distinción’: era un modelo de lo que es excelente o de
máximo nivel” (Eisenman, 1984, pp. 154-172).
Fig. 11. Todo parecía flotar y desvanecerse en una arquitectura de cajas
72
blancas, ventanas corridas, y volúmenes homogéneos puestos a la luz
del sol.
Una arquitectura que, con pequeñas variaciones, había perdurado desde el Renacimiento, buscando en sus orígenes, readaptándose, combinando sus partes, en su intento por perdurar a través de la historia.
Sin embargo, los nuevos diseños oscilantes ya no soportaban sus herramientas compositivas, elaboradas bajo una secuencia lineal, basadas
en el proceso como principio y fin de esta. Su arquitectura parecía haber
sufrido un agotamiento del lenguaje clásico, imposibilitado ya de dar una
respuesta satisfactoria a las nuevas necesidades de una sociedad mecanizada que pensaba diferente.
Ya era tarde, a partir de la Revolución industrial, la piedra daría paso a las
construcciones en hierro de un mundo capitalista, de producción en serie.
Todo parecía flotar y desvanecerse en una arquitectura de cajas blancas,
ventanas corridas, y volúmenes homogéneos puestos a la luz del sol.
Las anomalías habían comenzado, y con los años se producirían nuevos
cambios y nuevas anomalías. Era el fin de una arquitectura que había
sido sostenida a lo largo de quinientos años. Una revolución daría paso
a un nuevo paradigma. El paradigma mecanicista había comenzado.
Marcelo A. Fraile - Arquitectura biodigital
Figuras
Fig. 1. Los órdenes clásicos. https://www.vaporustedes.info/la-arquitecturagriega/
Fig. 2. Partenón de Atenas. http://3.bp.blogspot.com/-BUcdkQO2wMc/
VeAi7tYBkMI/AAAAAAAAAN0/ux-wWVOjmZk/s1600/greek_classic_
Parthenon_c450_BCE_large_exterior.jpg
Fig. 3. Sant’ Andrea de Mantua. https://es.wikipedia.org/wiki/
Bas%C3%ADlica_de_San_Andr%C3%A9s_(Mantua)#/media/File:Sant_
Andrea_straight.jpg
Fig. 4. Templo Malatestiano.https://upload.wikimedia.org/wikipedia/
commons/0/0e/Tempio_malatestiano_in_bianco_e_nero.jpg
Fig. 5. Tratado de Sebastiano Serlio. https://upload.wikimedia.org/wikipedia/
commons/c/cf/Serlio_5_orders_peake.png
Fig. 6. Tratado de Claude Perrault. http://betonbabe.tumblr.com/
post/3157878297/on-claude-perrault-normative-aesthetics-by
Fig. 7. Tratado de Vignola. https://upload.wikimedia.org/wikipedia/
commons/3/3b/VignolaS%C3%A4ulen.jpg
Fig. 8. Tratado de Palladio. https://upload.wikimedia.org/wikipedia/
commons/4/4c/Houghton_Typ_525_70.671_I_qvattro_libri_
dell%27architettvra_-_frontispiece.jpg
Fig. 9. Tratado de Laugier. http://2.bp.blogspot.com/-Z8LIJsYvzyY/UCet_
ZVZiJI/AAAAAAAAAGU/_UmPATApRQo/s1600/primitive.jpg
Fig. 10. Tratado de Jean Nicola Louis Durand. http://iala.udc.es/2011/11/
practica-08-revolucion-industrial.html
Fig. 11. La maquina de habitar. http://historia1-weissenhof.blogspot.com.
ar/2011/01/le-corbusiersuiza1887-francia-1965-fue.html
73
Marcelo A. Fraile - Arquitectura biodigital
EL PARADIGMA MECÁNICO: HIPÓTESIS MECANICISTA
“El 25 de mayo de 1916, Henry Ford le decía a un corresponsal del Chicago Tribune: La historia es una pavada.
Nosotros no queremos tradición. Queremos vivir en el presente, y nos importa un bledo la historia que no sea
la que hacemos hoy”. (Bauman, 1999, p. 139).
A este segundo paradigma, lo denominaremos Paradigma Mecánico, y recoge en cierta medida la “Hipótesis
Mecanicista” de Stephen Pepper y el “Presente Moderno” de Alberto Estévez.
Para Pepper, la hipótesis raíz del mecanicismo es la máquina, un “mecanismo universal” donde el funcionamiento del mundo, por analogía, puede ser considerado como un gran dispositivo matemático, complejo y
cerrado: lo que implica que este está formado por partes que interactúan entre sí, de un modo determinado.
Comúnmente asociado a la física newtoniana, el paradigma mecánico provee los fundamentos de una ciencia
clásica que plantea una teoría analítica del mundo, mecánicamente condicionada y estructurada por los ejes
del espacio y del tiempo.
En su esencia, aspiraba a descubrir las leyes que gobernaban el mundo, intentando describir sus efectos. En
este sentido, aceptaba las nociones de causalidad lineal, unidireccional e independiente de las variables: un
análisis lógico de la realidad como una colección de sistemas cerrados.
Por su parte, el “Presente Moderno” de Estévez consideraba que este paradigma tendría sus inicios durante
el siglo XIX, en coincidencia con las trasformaciones técnicas, económicas y sociales de principios de la Modernidad, al iniciar el camino que conduciría “…hacia el rompimiento con la arquitectura histórica del pasado,
mientras se intenta[ba] descubrir cuál debería ser ese desconocido lenguaje de la arquitectura moderna, sin
antecedente alguno” (Agkathidis, 2017, pp. 24-49).
Con el tiempo, los arquitectos abandonarían los órdenes clásicos y las decoraciones profusas, para describir
un espacio matemático con entidades abstractas que, a través de un proceso lógico, se transformaría en un
conjunto de reglas para universalizar el verdadero conocimiento (De Souza, 2007, p. 95).
Para esto, se requería de un salto sin retorno, que en el caso de la arquitectura representaría una disolución de
“…sus tradicionales y académicos límites disciplinares, para afrontar la materialización de nuevos conceptos
en torno a los cuales la ciencia, trata[ría] de explicar esa nueva realidad y las artes plásticas de visualizarla”
(Ortega Barnuevo, 2015, p. 23).
Tomando como base la producción masiva, el nuevo paradigma buscaría en la fabricación industrial su representación más fiel y precisa. Para esto, propugnaba un modelo estandarizado-mecanicista, con un sistema
de producción prefabricado en serie; objetos sin variaciones, rigurosamente idénticos, de acuerdo con una
estricta geometría euclidiana.
Bajo un desarrollo tecnológico positivista, la Modernidad replantearía los oficios artesanales para convertirlos
en “…trabajo[s] abstracto[s] reducido[s] a movimientos mecánicos”, donde el sujeto, “…con su deseo no cuenta
como tal, …su deseo se le extrae para ponerlo al servicio del sistema” (García Moreno, 2013).
Nuevos materiales como el hierro, el vidrio y posteriormente el hormigón armado, se convertirían en los
medios para que los diseñadores generasen nuevas formas, bajo una limitación compositiva de elementos
abstractos. Una arquitectura amnésica, basada en la negación o la ruptura con el pasado, bajo una voluntad
estética de innovación y una búsqueda formal hacia la abstracción y el funcionalismo.
75
Parte II. Algunas ideas de paradigma y sus ciclos
La Revolución Industrial
Para el historiador español Fernando Chueca Goitia, la Revolución Industrial puede ser considerada el punto de
partida de las grandes transformaciones tecnológicas, económicas y fundamentalmente sociales que se producirían a partir del siglo XIX y que influirían en todos los órdenes de la vida durante el siglo XX (1979, pp. 7-13).
Conceptualmente, esta Revolución tenía como principio doctrinario las teorías filosóficas del economista escocés Adam Smith (1723-1790), padre de la economía capitalista, que sacudiría al mundo a través de las ideas
expuestas en su libro “The Wealth of Nations”1, publicado en 1776. Para Smith, “el mayor avance y perfeccionamiento de la potencia productiva, y la destreza, habilidad y buen juicio con que esta potencia debe ser dirigida
o aplicada [es] consecuencia de la subdivisión del trabajo”. Por ejemplo: “Diez personas repartiéndose diversas
tareas en un taller pueden fabricar 48.000 alfileres en un día. Una persona sola, haciéndolo todo es imposible
que haga la décima parte” (Chueca Goitia, 1979, pp. 7-13).
Las teorías de Smith serían retomadas y completadas por los filósofos ingleses Jeremías Bentham (17481832) y Stuart Mill (1806-1873), quienes sentarían los postulados del utilitarismo, por el cual “La industria
venía a ser el sistema autorregulador que lograba el equilibrio de todos los esfuerzos, dispersos e inconexos
de los individuos, guiados por el incentivo de la ganancia pecuniaria” (Chueca Goitia, 1979, pp. 7-13).
En este sentido, fueron fundamentales también los aportes del filósofo positivista francés Auguste Comte
(1798-1857), que afirmaba que el único conocimiento auténtico era aquel conocimiento científico, surgido de
las hipótesis y obtenido a través del método científico.
A su vez, mientras las ideas económicas y filosóficas iban preparando el terreno de la nueva revolución, en el
campo de la ciencia, los ingenieros, estaban produciendo avances trascendentales. Uno de los descubrimientos más importantes fue el de la máquina de vapor de James Watt, en 1775, que juntamente con la subdivisión
del trabajo y la producción en serie generarían un cambio profundo en el mundo, mucho mayor que la Revolución social en Francia (Giedion, 1941, p. 167).
Los nuevos descubrimientos científicos del momento impulsaron cada vez más al hombre decimonónico a
romper las barreras que lo aprisionaban. Una modernización de la sociedad de acuerdo con las leyes del
capitalismo que daba como resultado un proceso de evolución lineal, sin límites aparentes, donde los seres
humanos eran introducidos en una búsqueda de prosperidad infinita, pero que en definitiva y con el tiempo
conduciría hacia el camino de la anulación, masificación y anonimato.
76
En el campo de la arquitectura, estos avances impactaron en el desarrollo de nuevos materiales y sistemas
constructivos; una sistematización de la antigua disciplina, descomponiendo el problema arquitectónico en
sus componentes abstractos, que conduciría hacia una búsqueda de nuevas orientaciones y nuevos métodos.
Para el arquitecto español Fernando Chueca Goitia (1911-2004), el puente sobre el río Severn, construido en
1775 en Coalbrookdale, Inglaterra, representa la primera obra de arquitectura realizada íntegramente en hierro
colado. Una de las más tempranas anomalías que marcarían el agotamiento del antiguo modelo.
Diseñado por el arquitecto inglés Thomas Prichard (1723-1777), el puente no constituía ninguna preocupación artística. Su forma casi semicircular era el resultado de una necesidad funcional realizada mediante una
nueva tecnología: “…un solo arco, de 30,15 m de luz y una flecha de 13,5 metros, realizada con cinco nervios
de hierro fundido” (Giedion, 1941, pp. 172-173). Al tratarse de hierro colado, permitía el desarrollo de formas
caprichosas y estilísticamente complejas.
A partir de 1850, algunos constructores comenzarían a experimentar con el hierro laminado, utilizándolo en
el desarrollo de vigas y perfiles para la construcción. Un nuevo paradigma comenzaba a vislumbrarse en el
1. La riqueza de las naciones, 1776..
Marcelo A. Fraile - Arquitectura biodigital
horizonte y permitía a los proyectistas desarrollar grandes estructuras
con fachadas transparentes, permeables a la luz del sol. Una renovación
tecnológica que irrumpía en el mundo del siglo XIX y generaba un nuevo
lenguaje estilístico que todavía conservaba algunos de los rasgos del
viejo paradigma anterior.
En los procesos de difusión de estas nuevas ideas, las exposiciones
universales constituyeron uno de los rasgos más sobresalientes, “…
una exaltación de las hazañas y del poderío industrial de las naciones”
(Chueca Goitia, 1979, p. 28).
En este sentido, quizás uno de los ejemplos más interesantes al respecto sea el Crystal Palace, erigido por el naturalista y paisajista inglés
Joseph Paxton (1803-1865), para albergar “Great Exhibition of the Works
of Industry of all Nations”, celebrada en Londres, en 1851.
Construido en tan solo seis meses, el Crystal Palace consistía en un
gran pabellón de aproximadamente 508 m de largo, 137 m de ancho, 34
m de altura. Fue el primer edificio de esas dimensiones construido con
Fig. 1. Puente sobre el río Severn,
construido en 1775 en Coalbrookdale,
Inglaterra, diseñado por el arquitecto
inglés Thomas Prichard.
cristal, hierro y madera, y montados sobre armaduras de hierro fundido.
Considerado por muchos críticos como el punto de partida de la arquitectura moderna, propició la aparición de nuevas tipologías liberadas de
los estilos del pasado. En el proceso, también produjo una separación
manifiesta entre el arquitecto y el ingeniero: el arquitecto, apegado a los
estilos históricos, fue dejado fuera de uno de los procesos más importantes del mundo moderno.
En esencia, estábamos ante el nacimiento de un nuevo proceso histórico,
con importantes transformaciones sociales y tecnológicas. Una revolución
formal y social, que buscaría conciliar “…el industrialismo, la sociedad
y la naturaleza, proyectando para ello prototipos de vivienda colectiva y
planes ideales para ciudades enteras” (Curtis, 2012, p. 15). La mecanización sacudiría el mundo de los oficios y aceleraría el fin de las tradiciones
vernáculas.
Buscando un sentido de orden, los arquitectos tuvieron que optar por alguna de las tres alternativas posibles: algunos, con una posición continuista,
“… se limitaban, simplemente, a facilitar los modos de vida tradicionales,
y usaron la máquina para proseguir con el eclecticismo tardorromántico”,
otros buscaron “…abstraer y clarificar la arquitectura vernácula para dar
acomodo a las necesidades funcionales modernas”, finalmente, los miembros de un tercer grupo, “…imbuidos de una inquebrantable confianza en
sí mismos e inspirados por una imaginación singularísima, sencillamente
inventaron su propio lenguaje” (Roth, 2010, pp. 500-505).
Una nueva arquitectura, que debía declarar su singularidad y exaltar
para ello “…la iluminación eléctrica, las comunicaciones por radio, el
automóvil, el aeroplano. El siglo que alboreaba debía ser el de la máquina, la velocidad y la movilidad, y la arquitectura de la época habría de
proclamar sin ambages esta mecanización” (Roth, 2010, p. 501).
77
Parte II. Algunas ideas de paradigma y sus ciclos
Fig. 2. El Crystal Palace, erigido por
Había comenzado una revolución sin precedentes: “Sus efectos sobre
el naturalista y paisajista inglés Joseph Paxton (1803-1865), para albergar “Great Exhibition of the Works of
el pensar y el sentir fueron tan profundos que aún hoy día no podemos
Industry of all Nations”, celebrada en
valorar a cuál profundidad de la íntima naturaleza del hombre llegó a
penetrar” (Giedion, 1941, p. 167).
Londres, en 1851.
El papel de las vanguardias
El nuevo paradigma se encargaría de reemplazar los viejos tratados decimonónicos por los manifiestos: una declaración pública de principios
(ideológicos y formales) que intentaban acabar con los cánones artísticos tradicionales para construir una utopía que trasvasara todas las
fronteras de la vida cotidiana.
78
Bajo un carácter polémico y contestatario, las vanguardias utilizaron este
nuevo lenguaje literario, para poner en marcha una renovación en la
teoría y la práctica arquitectónica, alterando el equilibrio existente hasta
el momento. El artista, en su papel de anticipador, definiría un nuevo
escenario de la cultura y del arte como antídoto contra la sintaxis del pasado clásicos. Buscando un nuevo mundo para el futuro, se encontraba
obligado a diseñar para las generaciones venideras. En sus textos, en
sus cuadros, en sus dibujos, se condensaban sus ideas de progreso y
su amor excesivo por la velocidad y la máquina. En este sentido, no se
trataría de un arte de imitación, sino un arte de concepción.
Términos como dinamismo, simultaneidad, líneas fuerzas, compenetración de planos, serían las palabras que representarían la nueva visión
del mundo (Belli, 2010, pp. 19-38).
Muchos de los artistas e intelectuales del momento habían comenzado
a integrar activamente las filas de las diversas vanguardias europeas,
sin que ello significase unidad absoluta de pensamiento: artistas como
el ucraniano Kazimir Malevitch (1878-1935), el neerlandés Piet Mondrian
(1872-1944), o el ruso Lázar Lissitzky (1890-1941), buscaban, a través
Marcelo A. Fraile - Arquitectura biodigital
de la abstracción, alertar al pueblo de la gran revolución que estaba por
venir (Chueca Goitia, 1979, p. 143).
Su intención era romper con las reglas clásicas de composición grecorromanas, extendiendo las fronteras del arte mas allá de la voluntad
del diseño propiamente dicho: las relaciones clásicas y equilibradas del
mundo conocible fueron dejadas de lado en favor de un mundo de formas geométricas puras, líneas simples e inclinadas. Formas sin más
ideología que los materiales y las técnicas apropiadas para su materialización, un movimiento de arte abstracto que buscaba eliminar completamente la cosa, en un deseo de huir de los objetos naturales.
Para el pintor ruso Kazimir Malévich (1878-1935), el arte debía rechazar
lo convencional para instaurar una supremacía de la sensibilidad pura,
bajo una dinámica futurista. De este modo, el universo era reducido a
una serie de abstracciones geométricas que no buscaban representar
la naturaleza, los objetos se transformaban en un fin en sí mismo, sin
contenido alguno.
Una yuxtaposición de formas de vivos colores cuya misión era la de simbolizar la esencia misma del arte, lejos de toda emoción o subjetividad
del artista.
Los trabajos plásticos de Malevich se transformaron en una fuente de
inspiración para los ensayos arquitectónicos del escultor ruso Vladimir
Tatlin (1885-1955) quien, utilizando “… formas simples, a las que por simple adición, o substracción… iba modificando para producir inestabilidad,
intranquilidad, sensación de inseguridad, todo ello en los tres planos di-
Fig. 3. Suprematismo, 1915-1916. Kazimir Malevich (1878-1935).
reccionales que manejamos en el espacio” (Bernardele, 1994, p. 187).
Uno de los teóricos más representativo de estas vanguardias fue el arquitecto ruso Moiséi Guínzburg (1892-1946) quien, en 1924, publicaría
el libro Estilo y época. Para Guínzburg, la máquina “… ya ha superado
sus límites y se incorpora poco a poco en lo más recóndito de nuestro
estilo de vida, transformando nuestra psique y nuestra estética, la que
constituye el factor más importante que influye en la concepción de la
forma” (p. 81). La máquina había creado una nueva cultura, un nuevo
modo de vida, donde lo colectivo prevalecería sobre lo individual.
Para Gropius, la industrialización era el problema central en la construcción de su época. De lograrlo con éxito, fácilmente se resolverían el
resto de los problemas sociales, económicos, técnicos y, por supuesto,
también artísticos (Roth, 2010, p. 512).
Conceptos que quedarían claramente plasmados en el nuevo edificio
de la Bauhaus en Desaau, diseñada por Gropius y Adolf Meyer (18811929): una demostración de cómo la industria podía inspirar la generación de una nueva arquitectura que reflejara las relaciones directas entre
las necesidades funcionales y la forma del edificio.
Para Gropius, la tarea de la Bauhaus consistía en convertirse “… en
pioneros de la simplicidad, es decir, en encontrar una forma simple para
79
Parte II. Algunas ideas de paradigma y sus ciclos
todas las necesidades de la vida, una forma que sea al mismo tiempo
respetable y genuina” (Frampton, 1992, p. 128).
Estas circunstancias empujarían a los proyectistas lejos de los tradicionales estilos al solidificar una nueva visión del mundo; una asociación
experimental entre artesanía, técnica y arte, que conduciría a una relación dinámica con la producción industrial: prototipos repetibles en serie,
bajo un número cerrado de elementos que se ensamblaban y montaban
para formar un objeto único.
Walter Gropius la definió como “la arquitectura total”, un funcionalismo
que no buscaba “… contraponer las exigencias funcionales a las formales dentro del viejo sistema de valores, sino de ver las unas y las otras
desde un nuevo punto de vista. El gran mérito de Gropius consiste en
haber sido el primero en individualizar claramente este concepto y haberlo traducido a términos didácticos adecuados” (Benevolo, 1989, p. 122).
De la máquina y el habitar
Fig. 4. Para Gropius, la tarea de la
Bauhaus consistía en convertirse
“… en pioneros de la simplicidad, es
decir, en encontrar una forma simple para todas las necesidades de
la vida, una forma que sea al mismo
tiempo respetable y genuina” (Frampton, 1992, p. 128).
De acuerdo a su definición, la palabra máquina proviene de latín machinarĭus, y este a su vez del griego μηχανή, y se refiere al “conjunto de
mecanismos dispuestos para producir, aprovechar o regular una energía
motriz” (Espasa Calpes, 2001).
Por su parte, en una versión extendida, el Diccionario Larousse la define
como el “conjunto de mecanismos combinados para recibir una forma
determinada de energía, transformarla y restituirla en otra más apropiada, o bien para producir un efecto determinado” (Larousse, 1999).
Conceptualmente, la máquina es un elemento artificial, formado por di-
80
ferentes piezas fijas y móviles, combinadas y ordenadas, cuya característica esencial es aprovechar, regular o dirigir determinada energía y
transformarla para obtener un trabajo o efecto determinado. La máquina
no tiene ornamentación superflua. Históricamente, la máquina ha funcionado como potenciadora de las actividades o trabajos del hombre.
Si bien pueden variar, intrínsecamente una máquina tiene tres tipos de
componentes:
-
El accionador: es el dispositivo responsable de hacer funcionar
la máquina, para ello transforma la energía en un trabajo o efecto determinado.
-
Los mecanismos: son los elementos mecánicos encargados de
transformar la energía del accionador en el efecto o proceso
perseguido.
-
La estructura de soporte: son los elementos de sujeción que
aseguran los mecanismos y el accionador.
Sin embargo, durante la ciencia moderna, se cambiaría el concepto mismo de la máquina que dejaría de estar asociada a la idea de movimiento
Marcelo A. Fraile - Arquitectura biodigital
de la materia. A través de la ciencia, se había abstraído de esta el componente material, razón que permitía aprovechar el concepto de máquina para explicar todos los fenómenos y procesos que se producían en el
mundo de la física, de la química e incluso de la biología.
Fig. 5. Walter Gropius la definió como
Nicolás Copérnico (1473-1543), Galileo Galilei (1564-1642), Isaac Newton (1643-1727) son solo algunos de los que considerarían el Universo
como un conjunto mecánico regido por estrictas leyes universales.
sino de ver las unas y las otras desde
“la arquitectura total”, un funcionalismo
que no buscaba “…contraponer las
exigencias funcionales a las formales
dentro del viejo sistema de valores,
un nuevo punto de vista.” (Benevolo,
1989, p. 122).
De manera análoga, el filósofo francés René Descartes (1596-1650),
bajo la tesis de “animal-máquina”, creía que “los seres vivos, salvo el
hombre, son meros mecanismos” (Plaza Guerrero, 1991, p. 5). Por su
parte, el médico y filósofo francés Julien Offray de La Mettrie (17091751) no compartía la idea pasiva de Descartes. En 1747, escribió L’homme machine en donde expresaba que tanto el hombre, como todos los
seres vivos, pueden ser explicados en términos exclusivamente mecánicos. Maquinas tan perfectas que “se dan cuerda a sí mismas”.
Entre 1922 y 1931, el médico y divulgador alemán Fritz Kahn (18881968) explicaba el funcionamiento del cuerpo humano a través de una
metáfora maquínica. En una colección de cinco volúmenes llamada La
vida del hombre, Kahn desarrollaría una serie de dibujos para explicar el
funcionamiento del cuerpo humano como si fuera un artefacto mecánico.
Una combinación entre lo científico y lo artístico. Su contribución más
importante es el desarrollo de una visualización creativa para explicar
las ideas científicas complejas. Uno de sus trabajos más sobresalientes fue un póster dibujado por el arquitecto Fritz Schüler, titulado Der
Mensch als Industriepalast2, en donde explora los 6 ciclos de la maquinaria humana a través de una analogía con la fábrica.
2. El hombre como un palacio industrial.
81
Parte II. Algunas ideas de paradigma y sus ciclos
Hacia una máquina de habitar
En 1911, el ingeniero norteamericano Frederick Taylor (1856-1915) publicaba el libro The Principles of Scientific Management3: una obra pionera
en el campo de la administración en la que, bajo una concepción filosófica positivista, intentaba exponer las ventajas de la utilización de un
conocimiento científico como un instrumento que contribuiría a obtener
la mejor manera de desarrollar un trabajo.
En su libro Taylor, “…quería producir una revolución mental en los obreros y los gerentes, mediante la creación de lineamientos claros para
mejorar la eficiencia de la producción” (Robbins & Decenzo, 2002, p. 30).
Un instrumento que contribuiría a una reforma social y que, curiosamente, en el proceso lograría cautivar a los arquitectos modernos europeos.
En principio, el pensamiento de Taylor se apoyaba en una fe absoluta en la
razón, esa “…capacidad de la mente humana para percibir, analizar y resolver cualquier problema” (Roth, 2010, p. 525). Una concepción positivista que
se difundiría en múltiples ramas del conocimiento y llegaría también al campo de la arquitectura de la mano de las vanguardias a principios del siglo XX.
Bajo el mito de una sociedad científica y racionalmente ordenada, que
coincidía con la admiración por la belleza y la precisión de la máquina,
la casa se transformaría también en un objeto producido en serie, como
el automóvil, ese gran paradigma de la industrialización.
En consecuencia, a través de esta mirada, todo debía y podía ser producido bajo un sentido racional del trabajo, “…una tendencia inexorable ha-
Fig. 6. Entre 1922 y 1931, el médico
y divulgador alemán Fritz Kahn (18881968) explicaba el funcionamiento del
cuerpo humano a través de una metá-
82
fora maquínica.
cia la industrialización: es decir, la producción en serie …y la repetitividad de cada elemento”, que resolvía con mayor eficacia que la artesanía
tradicional y permitía que cada objeto pudiera ser reemplazado según la
necesidad para, de este modo, eternizar la obra (Montaner, 1997, p. 145).
En poco tiempo, Le Corbusier se transformaría en el profeta de esta
nueva religión que, con la publicación en París en 1923 de Hacia una
arquitectura, definiría una nueva forma de ver el diseño de su tiempo.
Una arquitectura que veía en la producción industrial su representación
más fiel y precisa, a través de un alejamiento deliberado por cualquier
raíz histórica o tradicional. Para Le Corbusier, “…la arquitectura no tiene
nada que ver con los ‘estilos’” (1964).
En este sentido, los Congresos Internacionales de Arquitectura Moderna
(CIAM), desde el principio, actuaron como herramientas de propaganda
de estas nuevas ideas que se venían gestando en la Europa de 1920. Un
racionalismo arquitectónico que intentaba captar la atención de las élites
culturales e industriales capaces de financiar estos proyectos.
Quizás el instrumento más representativo de este tipo de pensamiento,
fuera el modulor: un vocablo compuesto derivado de “modulo” (es decir,
unidad de medida) y section d’or (sección áurea).
3. Taylor, F. (1969). Principios de la Administración Científica, México: Herrero
Hnos. S. A. (11.º edición).
Marcelo A. Fraile - Arquitectura biodigital
En su esencia, propugnaba un modelo estandarizado-mecanicista, con
un sistema de producción prefabricado en masa; una elaboración de
objetos sin variaciones, rigurosamente idénticos de acuerdo con una estricta geometría euclidiana. Bajo su lema: “la casa, como máquina de
habitar”, Le Corbusier, fascinado por el automóvil, establecía una rígida
normativa industrial que regulaba el diseño en sus diferentes escalas,
“desde la cuchara a la ciudad”. En este sentido, el redescubrimiento del
hormigón como material capaz de ofrecer gran plasticidad escultórica
por su ductilidad, y las “eternas discusiones” sobre el binomio forma-función, desarrolladas durante el siglo XX, pondrían de manifiesto la importancia de la geometría en el manejo de las formas.
Como teórico, Le Corbusier sabía de la diferencia existente entre los sistemas tradicionales de medidas y los sistemas de prefabricación. En efecto,
el sistema decimal era rechazado por su arbitrariedad y falta de relación
con el cuerpo humano, en tanto que el sistema anglosajón, de carácter
antropomórfico, era objetado por su excesiva complejidad. Se precisaba
de un tercer sistema proporcional que superara esa división, a través de
un único sistema universal que fuera sencillo de usar y versátil en la cantidad de medidas intermedias (Díaz Segura, Alfonso, 2011, p. 55).
Sin embargo, en el modulor, todavía subyace la idea vitruviana de que
utilizar proporciones humanas traslada la belleza de la naturaleza a la
arquitectura (Díaz Segura, Alfonso, 2011, p. 58). Para el diseñador costarricense Franklin Hernández, el error de Le Corbusier fue incurrir en
imprecisiones iniciales que invalidaban conceptualmente su teoría: la
Fig. 7. Quizás el instrumento más representativo de este tipo de pensamiento, fuera el modulor: un vocablo
compuesto derivado de “modulo” (es
decir, unidad de medida) y section
d’or (sección áurea).
idea del hombre tipo. Una mirada tecnócrata que buscaba “…moldear la
forma de vida del individuo anónimo” (Díaz Segura, Alfonso, 2011, p. 37).
Hacia una arquitectura
Para el historiador suizo Sigfired Giedion (1888-1988), “Los artistas funcionan en buena medida como inventores o descubridores científicos:
todos ellos buscan nuevas relaciones entre el hombre y su mundo” (Ortega Barnuevo, 2015, p. 47).
En sus exploraciones, Giedion analizó los sistemas de producción y las
cadenas de montaje, principalmente de las grandes industrias estadounidenses. Sus investigaciones quedarían registradas en su libro Space,
Time and Architecture, en donde describía el nacimiento de un nuevo
espacio, el cual estaba gobernado por la mecanización y el progreso
tecnológico. Un nuevo espacio que conduciría indefectiblemente hacia
el progreso social. Para Giedion, es el origen de una revolución en la
arquitectura, “…una revolución que supon[ía] una ruptura definitiva con
planteamientos precedentes en el campo de las ciencias y de las artes”
(Ortega Barnuevo, 2015, p. 21).
Por su parte, el arquitecto e historiador italiano Leonardo Benevolo
(1923-2017) consideraba que esta arquitectura presentaba tres conceptos principales: en primer lugar, una conexión esencial entre forma y
83
Parte II. Algunas ideas de paradigma y sus ciclos
función; en segundo lugar, una alternativa que se alejaba del repertorio
de estilos del pasado; y, finalmente, la convergencia en un único movimiento, de las corrientes vanguardistas de la época (1989, p. 118).
La indisoluble relación entre la forma y la función
En marzo de 1936, el arquitecto alemán Ernst Neufert (1900-1986) publicaba Bauenwurfslehre4, un manual de construcción con detallados
dibujos, en donde se enseñaba al proyectista el espacio que necesitaba
el hombre “… para desarrollar sus tareas con comodidad, pero sin desperdiciar inútilmente el espacio” (1974).
El proyecto de la casa como máquina de habitar debía ser resuelta en
planta: una descomposición en unidades mínimas de elementos abstractos que serían reorganizados de acuerdo a un estricto programa de
tareas perfectamente coordinadas.
Para el arquitecto estadounidense Louis Sullivan (1856-1924), “La forma
sigue a la función, y esta es la ley. Donde la función no cambia, la forma
no cambia” (1896, pp. 403-409).
Bajo un modo racional y económico, se concebían los espacios en planta desde el interior hacia el exterior, de acuerdo con los usos. La forma
se transformaba en un contenedor flexible de actividades, que cumpliera
eficazmente con la función para la cual había sido concebida.
Fig. 8. En marzo de 1936, el arquitecto alemán Ernst Neufert (1900-1986)
publicaba Bauenwurfslehre, un manual de construcción con detallados
dibujos, en donde se enseñaba al
84
proyectista el espacio que necesitaba
el hombre.
Posteriormente, se concebiría la fachada, siempre asimétrica, resultado de
su correcta correspondencia con las funciones interiores: una arquitectura
parlante donde la función debía mostrarse en el exterior del edificio. Una conexión entre forma y función. Su representación debía permitir, “…una definición unívoca de su forma y posición recíproca” (Benevolo, 1989, p. 120).
Una arquitectura hilemórfica5, que concebía la materia y su forma como
elementos consecutivos y unidireccionales, “sin una interacción dinámica, liberada por fin de la tiranía de la simetría bilateral de la École des
Beaux-Arts” (Roth, 2010, p. 523).
El espacio de este nuevo paradigma era un espacio funcional que se reproducía en las diferentes escalas, de lo público y lo privado. Un espacio
de exposición, “…asociado a la vigilancia, [que] implica[ba] una total vinculación de la cuestión del espacio a una finalidad edificante, era un espacio que cobra[ba] sentido en un futuro optimista” (Ábalos, 2001, p. 75).
En la máquina de vivir, “La ambigüedad, la sorpresa y el encanto …
fueron descartados por irrelevantes, y la circulación como función social primaria de la arquitectura también fue infravalorada” (Roth, 2010, p.
524). Se había sustituido el mito por la razón, mientras se buscaba abrir
un nuevo camino de experimentación formal.
4. Traducido como El arte de proyectar en arquitectura.
5. El hilemorfismo deriva del griego ὕλη hýlē ‘materia’, μορφή morphḗ ‘forma’
e –ismo, es decir “teoría ideada por Aristóteles y seguida por la mayoría de los
escolásticos, según la cual todo cuerpo se halla constituido por dos principios
esenciales, que son la materia y la forma” (RAE, Asale, 2014).
Marcelo A. Fraile - Arquitectura biodigital
Para Le Corbusier, en cuanto se hubieran establecido los requerimientos funcionales adecuados, como en el
caso del automóvil, la forma apropiada emergería de un modo espontáneo. Era una revolución que pretendía
refundar el mundo, resignificarlo para el hombre moderno: lo formal y lo bello se transformarían en funcional y
útil, con un contenido social que conduciría indefectiblemente hacia la vivienda digna. Un espacio que transformaría el modo de vivir en las grandes ciudades del mundo.
Aprovechando los nuevos materiales y sistemas constructivos, el proyecto debía ser resuelto priorizando los
espacios flexibles, capaces de montarse y desmontarse rápidamente, sin añadidos decorativos.
La única decoración aceptable partía de los propios elementos constructivos lo que limitaba el uso del color y
la textura a sus superficies.
Una arquitectura simplificada, de volúmenes puros, cubiertas planas sin cornisa, y con una predominancia de
las líneas rectas. Una secuencia de formas moduladas y reguladas mediante leyes geométricas simplistas,
que organizaban las diferentes fachadas del edificio: una composición cubista en la que se hace preciso el
recorrido del observador para poder entenderla.
Espacios libres, fluidos, continuos, transparentes y abstractos, en total contraposición al espacio tradicional.
Son formas puras que habían sido depuradas de las reminiscencias históricas, y sus significados habrían de
armonizarse con las experiencias específicamente modernas.
Sin embargo, aunque abogaba por la flexibilidad continua de los espacios, en esencia, se trataba de una arquitectura acabada, de espacios diseñados milimétricamente, donde “Cualquier modificación perturbaría su
perfección formal, su pureza, sus proporciones”. Incluso ni siquiera su materialización es completamente prefabricada, “…no hay posibilidad de desmontaje porque las técnicas con las que se construye no lo permiten”
(Díaz Segura, Alfonso, 2011, p. 29).
En esencia se trataba de una arquitectura consecuencia de una relación entre función y belleza, utilizada por
un arquitecto fascinado ante un maquinismo cuya mecánica desconoce, o no puede utilizar.
La amnesia del pasado en la estética de la máquina
El nacimiento del siglo XX había definido la conquista de la velocidad por el hombre, por encima y por debajo
del mar: ferrocarriles, automóviles, trasatlánticos. El paradigma positivista había presentado una proyección
hacia adelante, confiando en el progreso infinito como instrumento de salvación que llevaría al hombre “…hacia una sociedad perfecta, sin conflictos, organizada por la ciencia; traslada[ndo] la trascendencia de la religión
a la inmanencia de la vida” (Ábalos, 2001, p. 70).
En consecuencia, no es de extrañar que el ornamento fuera considerado como algo superfluo dentro de la
arquitectura. De acuerdo a los postulados del arquitecto austriaco Adolf Loos (1870-1933), el ornamento debía
ser suprimido de la arquitectura, este ya no pertenecía a nuestra civilización, ya no era expresión de esta, y
los ornamentos que se crean en el presente ya no tienen ninguna relación con nosotros ni con nada humano
(1974, p. 47).
Por esta razón, y con una voluntad estética de innovación, el nuevo paradigma mecanicista presentaría, bajo
un carácter amnésico, una ruptura con el repertorio de estilos del pasado, y una búsqueda de formas abstractas y funcionales (Montaner, 1997, p. 141).
Para el arquitecto alemán Ludwig Mies van der Rohe, la arquitectura podía ser definida a través de su conocida
frase “Less is more”: una arquitectura que buscaba una sencillez lingüística en sus elementos estructurales, en
sus formas geométricas puras, y en una ausencia total de elementos ornamentales.
85
Parte II. Algunas ideas de paradigma y sus ciclos
El paradigma de la Revolución Industrial había llegado, asumiendo “…cualidades cuasi divinas de perfección
geométrica y garantía de superioridad estética” (Díaz Segura, Alfonso, 2011, p. 28).
Lejos de los condicionantes historicistas, esta nueva arquitectura se había desecho de la tratadística, y la había reemplazado a través de una expresividad desmedidamente racional, de formas puras, cubiertas planas
y una aséptica materialidad, fruto de los nuevos materiales prefabricados. Una arquitectura maquínica, de
formas dinámicas y transparentes.
Sin embargo, en la realidad, la relación entre arquitectura y prefabricación había quedado relegada a “…una
solución de compromiso entre la eficacia industrial y la variabilidad de la forma” (Kottas, 2013, p. 196): sus
resultados eran limitados, sus diseños quedaban reducidos a sistemas de prefabricación, donde “…lo óptimo,
lo perfecto, no [tenía] por qué ser lo más bello” (Díaz Segura, Alfonso, 2011, p. 14).
Para el arquitecto español Alfonso Díaz Segura (1976), el movimiento moderno exhibía fuertes contradicciones en su forma: mientras que por un lado se presentaba ahistórico, defendiendo la utilización de la máquina
y de la industria como catalizadores de una nueva estética; por otro lado, establecía nuevas reglas a las que
la arquitectura que quisiera ser moderna debería cumplir. En otras palabras, el diseñador debía elegir entre
proyectar edificios cuyo lenguaje fuera una consecuencia de los sistemas constructivos independiente de los
resultados formales, o proyectar edificios cuya imagen de máquina fuera el objetivo, sin importar que se hubiesen utilizado para esto los sistemas de construcción tradicional (2011, p. 14).
Con el tiempo, en su búsqueda de espacios flexibles –transformables, espacios reducidos con precisión milimétricas–, que intentaban producir una arquitectura que cumpliera con las necesidades básicas del hombre
a fin de mejorar su calidad de vida, acabó por potenciar una actitud destructiva y ajena a lo que sucedía en
el entorno, lo que generó fuertes desequilibrios. La recuperación del concepto de ciudad y medioambiente es
una de las grandes deudas de la arquitectura moderna, y la necesidad de una recuperación de la memoria del
lugar y de su historia.
La convergencia “higiénica” de las vanguardias
86
Inspirado en los escritos del filósofo francés Augusto Comte (1798-1857), los diseñadores racionalistas consideraban que la humanidad marchaba a través de una serie de etapas que la iban perfeccionando. Por consiguiente, “El progreso social era necesario e irresistible a la manera de una ley física” (Ábalos, 2001, p. 73). En
este sentido, Le Corbusier no solo buscaba una renovación de la arquitectura, sino también una revolución de
toda la sociedad a través de un sistema de construcción en masa para la producción de la vivienda.
Bajo el concepto de una especie de darwinismo social invertido, los diseñadores modernos “estaban convencidos de que, si se cambiaba el entorno, si se demolían las barriadas congestionadas y las estrechas calles
medievales, sustituyéndolas por resplandecientes bloques de viviendas organizados en hileras… el crimen y
la pobreza quedarían erradicados para siempre” (Roth, 2010, p. 524).
A través de un discurso especializado en torno a la problemática higienista, había nacido el concepto de producción en serie de unidades idénticas (Solá-Morales, 2003).
Un espacio higiénico, con buenas visuales y perfectamente ordenado de volúmenes blancos sobreelevados
que dejaban pasar un manto verde de naturaleza por debajo, al tiempo que permitían disfrutar de su cubierta
con actividades lúdicas y deportivas. Una tipología con un “…buen aprovechamiento de la parcela para familias tipo, de clase obrera o burguesa” (Ábalos, 2001, p. 21).
El espacio maquínico carecía de cualquier reflexión sobre el confort, era un espacio desinfectado, proporcionado por las transparencias, el asoleamiento y la limpieza.
Marcelo A. Fraile - Arquitectura biodigital
Los materiales y los sistemas constructivos debían manifestarse tal cual eran: “…se exhibían orgullosamente
las tuberías, y las blancas celdas cúbicas se iluminaban mediante bombillas desnudas colgadas en el centro
de la habitación” (Roth, 2010, p. 524).
Un espacio fluido, donde lo privado era expuesto, lo domestico era anulado, y lo íntimo era castigado, una
visibilidad convertida en vigilancia (Ábalos, 2001, p. 75).
El arquitecto, se había transformado en el intérprete de los deseos y esperanzas de la sociedad (Solá-Morales,
2003). En este sentido, “el jactancioso lema de Le Corbusier de ‘un edificio para todas las naciones y todos
los climas’ fue puesto en práctica”. Y de ese modo, los valores culturales occidentales fueron exportados “…a
todos los confines del globo; el hecho de si esa arquitectura era la adecuada a las condiciones climáticas y
sociales del lugar, carecía de importancia” (Roth, 2010, p. 524).
Con el tiempo, la aparente solidez del mecanicismo comenzó a presentar síntomas de deterioro, lo que generó espacios obsesivos que en ocasiones insistían “… demasiado en el uso universal de formas y técnicas
constructivas, como la azotea plana, aun en aquellos lugares en que, por razones climáticas, resultaba difícil
obtener el debido sellado” (Roth, 2010, p. 523).
Tres ejemplos
Posiblemente, tres de los ejemplos más paradigmáticos de este tipo de arquitectura sean la Casa Dom-Ino de
1914, la casa Citrohan de 1920 y Villa Savoye de 1930.
En consecuencia, para Le Corbusier existiría un proceso evolutivo, un “darwinismo arquitectónico”, un nivel de
perfeccionamiento con capacidad de adaptación entre los diseños de la casa Dom-Ino y la Villa Savoye que
ofrecería mejores soluciones.
En este sentido, quizás el ejemplo más paradigmático de este tipo de arquitectura sea la Casa Dom-Ino. Derivado del megarón mediterráneo, se trata de un prototipo arquitectónico residencial, fuertemente marcado por
las teorías positivistas de August Comte. La casa, como pieza de diseño industrial, estaba constituida bajo una
composición cartesiana de elementos y partes que se articulaban y ordenaban en una retícula.
Su nombre es un juego de palabras: por un lado “domus”, que en latín significa “casa”; y por el otro “dominó”, en
correspondencia con el juego de mesa, de piezas móviles. Derivado de esto, Dom-Ino es una fabricación de
casas en serie a partir de una estructura de hormigón; una pieza típica del diseño industrializado.
En 1909, Jeanneret y Dubois desarrollaron las primeras ideas de lo que ellos llamaron “propuesta-monolito”, un
sistema estructural basado en la construcción monolítica. Posteriormente en 1914, con una visión comercial y
el sistema dominó ya en camino, Jeanneret buscó patentar el sistema de manera oficial para ser utilizado en
la reconstrucción de las viviendas devastadas por la guerra.
Le Corbusier, como el mismo lo reconoce, no poseía la formación técnica para abordar este tipo de proyectos,
es por ello que se asocia con su amigo de la infancia Max du Bois6, un ingeniero de caminos especialista en
hormigón, para que lo ayude a desarrollar este proyecto.
Básicamente, el diseño consistía en una estructura en esqueleto, un sistema de marcos cartesianos, independiente de las funciones de la casa, bajo los principios definidos por el profesor y maestro de du Bois, Emil
Morsche, que permitía ser realizada con elementos estándares de hormigón armado colado, lo que facilitaba
su construcción en pocas semanas.
6. Max du Bois, ingeniero civil licenciado en Zurich, fundó la compañía “Sociéted’Application du Béton Armé” (SABA) que
promovía la construcción de hormigón.
87
Parte II. Algunas ideas de paradigma y sus ciclos
Gracias al perfeccionamiento del hormigón armado, su estructura7 quedaba materializada por una malla estructural de pórticos. Seis delgadas
columnas y tres superficies o losas planas continuas: las inferiores apoyaban sobre la cimentación, estas plataformas estaban conectadas por
una escalera de dos tramos. Situación que generaba una planta libre,
sin necesidad de muros de carga, que permitía innumerables combinaciones para satisfacer las más diversas necesidades, una “…dislocación
entre estructura y cerramiento” (Díaz Segura, Alfonso, 2011, p. 36).
En su fachada, ahora independiente, permitía fijar las aberturas a la
estructura, para finalmente construir los muros exteriores y los tabiques
interiores. De este modo, el sistema constructivo quedaba igualado a la
industria, al de una máquina de habitar.
Un sistema pensado en la estandarización de una célula elemental para
su utilización en múltiples situaciones: “…la casa de producción en masa
al alcance de todos”, buscando dar respuestas a las nuevas necesidades, bajo “…la premisa de que la forma es un resultado de la función: el
programa, los materiales, [y] el contexto” (Montaner, 1997, p. 58).
Una síntesis ideal que busca la primigenia de la arquitectura de la “cabaña primitiva”, planteada por el abate Laugier, pero realizada en hormigón
armado y acero (Montaner, 1997, p. 60). En esencia se trata de la expresión de una nueva sociedad, más moderna, basada en la igualdad y la
economía, pero que rechaza la historia y la tradición.
Fig. 9. Casa Dom-Ino. Su nombre
es un juego de palabras: por un lado
“domus”, que en latín significa “casa”;
y por el otro “dominó”, en correspondencia con el juego de mesa, de piezas móviles. Derivado de esto, DomIno es una fabricación de casas en
serie a partir de una estructura de
hormigón; una pieza típica del diseño
88
industrializado.
Pese a sus principios económicos, el proyecto no pudo llevarse a cabo
100%, y las casas recién pudieron aplicarse en Francia en 1928, a partir
de la aprobación de la “Ley Loucheur”, que buscaba construir más de
200.000 viviendas de bajo costo.
De cualquier forma, estos conceptos influyeron decisivamente en el proyecto de la casa Citrohan,8 desarrollada a partir de 1920: el nombre de
Citrohan es un retruécano de Citroën, la popular marca automovilística
francesa. Una casa tan sencilla y económica de construir, como lo era el
utilitario (Roth, 2010, p. 517).
Su prototipo era un prisma blanco encalado de hormigón realizado in
situ, elevado sobre pilares, con cubierta plana, amplias ventanas apaisadas del tipo industrial y escaleras externas. Una forma simbólica de
la estética mecanicista, donde el espacio había quedado cuantificado
matemáticamente, y la vivienda se reducía a sus elementos esenciales:
una sala de estar en doble altura, una cocina, un baño y los dormitorios,
“… los coches podían cobijarse en el espacio creado por los soportes
de hormigón armado o pilotis, [también existían] terrazas a media altura
y en la parte superior” (Curtis, 2012).
7. Perret utilizaba un sistema constructivo basado en una estructura de madera, “…
formado por nudos articulados y elementos horizontales de diferentes cantos donde
se diferenciaban las vigas y viguetas, según las luces que cubrir y las cargas por
soportar”. Posteriormente, Le Corbusier tomaría estos conceptos y los vincularía con
un modelo ya ensayado de Juste Schneider, (Díaz Segura, Alfonso, 2011, pp. 30-36).
8. Su nombre deriva de la empresa de automóviles Citroën, un homenaje a la
producción en serie de vehículos que había comenzado a desarrollarse en Europa por aquellos tiempos.
Marcelo A. Fraile - Arquitectura biodigital
Una búsqueda del espacio “…en torno al Existenzminimun para la optimización de tipos estandarizables de viviendas destinadas a familias
obreras” (Ábalos, 2001, p. 21), un triunfo del reduccionismo científico del
espacio.
Un diseño evolutivo, donde la vivienda tuvo tres variantes: las dos primeras entre 1920 y 1922, y una tercera, sobre pilotis, que fue expuesta en
el Salon d’Automne de 1922, como una solución a la crisis de la vivienda
en los años posteriores a la guerra.
Pese a ello, la precoz industrialización de ese momento no estaba en
condiciones de ofrecer una solución viable a su planteo: con un importante error conceptual que no discriminaba las condiciones de fabricación y las técnicas utilizadas “…al considerar la prefabricación como si
fuera una cadena de montaje de coches en la que las industrias implicadas servían indistintamente chasis de automóviles o armazones para
carpinterías” (Díaz Segura, Alfonso, 2011, p. 21).
Con el tiempo, estos conceptos se sustanciaron en lo que muchos consideran como la culminación del ciclo de Villas Blancas, la Villa Savoye,
también conocida como Les Heures Claires, construida como casa de
fin de semana en el pequeño pueblo de Poissy, en las afueras de París,
entre 1928 y 1930.
Construida para mirar el horizonte y disfrutar de la calma, su resultado
es el producto del deseo de unir rigor estructural y libertad espacial. Para
esto, la casa fue elevada del terreno a través de una construcción en
esqueleto: “…un cubo que se levanta sobre columnas” (Giedion, 1941),
una villa en completo aislamiento, que se pone en contacto con la naturaleza.
Para Le Corbusier, la arquitectura es una heredera del cubismo, ella se
ve afectada por el tiempo y por el cambio de posición del observador.
Es por esto que el edificio deja de ser estático, la obra propone giros
necesarios que obligan al desplazamiento. Una secuencia cinemática
de sucesos.
En este sentido, su volumetría no se presenta franca, es capturada en el
plano utilizando el contraste de luces y sombras como acentuación de
este juego tridimensional. Un proceso de superposición, transparencia
de planos y vistas separadas temporalmente que se unifican en múltiples recorridos y dan la sensación de profundidad. Una composición de
volúmenes establecidos jerárquicamente y articulados a través de un
sistema circulatorio como elemento definitorio, un paseo arquitectónico
donde se nos presentan aspectos continuamente variados.
Para que esto suceda, durante el diseño, se hizo imprescindible un ajustado programa de necesidades que incluía: en planta baja, un garaje
con capacidad para tres automóviles, un vestíbulo de entrada, un cuarto
para lavandería, dos cuartos para el servicio y un cuarto para el chofer;
en el primer piso, la cocina, una despensa, el salón principal, un cuarto
89
Parte II. Algunas ideas de paradigma y sus ciclos
de huéspedes con lavabo, la habitación del hijo con baño, la habitación
de los padres con cuarto de baño, y un lavabo, tocador y jardín; en la segunda planta, se ubicaría el solárium; finalmente la composición incluía
además un sótano.
Un complejo sistema formal/estructural sobre la base de pilotes que ordenaban una malla arquitectónica que parecía evocar los planteos academicistas de Durand. Sin embargo, su concepción era otra: la villa no
es una masa sólida. El cuerpo del edificio está perforado en dos de sus
lados: tanto en el sudeste como el sudoeste, importantes vacíos permiten el ingreso de luz, lo que produce tanto un nexo entre el interior y el
exterior como un maravilloso juego geométrico que otorga dinamismo a
las fachadas y transforma el interior, oscuro y frío, en un lugar luminoso
y confortable (Montaner, 1997, p. 161).
Para que esto suceda, algunos pilotis desaparecen y otros se desplazan ligeramente y permiten la circulación vehicular en planta baja, la
cual queda materializada en un panel de cristal curvado, cuyo radio está
determinado por el desplazamiento del coche Voisin. El espacio se ha
transformado en una extensión matemática-algebraica. Para ello, la cubierta plana se convierte en una azotea ajardinada, una clara influencia
de la arquitectura popular mediterránea.
Fig. 10. La casa Citrohan, desarrollada
a partir de 1920: el nombre de Citrohan es un retruécano de Citroën, la
popular marca automovilística francesa. Una casa tan sencilla y económica
de construir, como lo era el utilitario
(Roth, 2010, p. 517).
Desde la recepción en planta baja, se puede acceder al primer piso de
la casa, ya sea a través de una escalera helicoidal o mediante una rampa que conduce al centro de la casa. Esta rampa de dos secciones y la
escalera en espiral se articulan e interpenetran con la caja y vinculan los
diferentes niveles, desde la planta baja hasta la azotea. Una ratificación
compositiva “…donde la circulación vertical se formula por fuera de la
matriz tridimensional” (Gardinetti, 2013). La rampa es la auténtica espina
dorsal de la creación: situada en el eje compositivo, atraviesa la retícula
de pilotis. Una secuencia visual que cambia a lo largo del recorrido, se
manifiesta gradualmente y permite la vivencia de los espacios cambian-
90
Marcelo A. Fraile - Arquitectura biodigital
tes, la promenade architecturale9: una sucesión armoniosa y compleja,
donde los espacios se conjugan con la iluminación y producen un modelado secuencial de la forma.
La evolución mecanizada de los ‘60
Con la llegada de la década de 1960, la exacerbación del paradigma
de la máquina tuvo dos exponentes diametralmente opuestos: por un
lado, se encontraban los diseños del arquitecto ingles James Stirling
Fig. 11. Para Le Corbusier, la arquitectura es una heredera del cubismo, ella
se ve afectada por el tiempo y por el
cambio de posición del observador.
Fig. 12. Su volumetría no se presenta
franca, es capturada en el plano utilizando el contraste de luces y sombras
como acentuación de este juego tridimensional.
(1926-1992). Una arquitectura de profunda raíz funcionalista, que quedaría perfectamente ejemplificada a través de uno de sus proyectos más
emblemáticos: la Escuela de Ingeniería de la Universidad de Leicester.
El edificio, presentaba una compleja y fragmentada forma, donde cada
uno de los volúmenes correspondía con una función determinada: una
extensa nave con cubierta cristalina fue destinada para los talleres, un
bloque bajo y vidriado para los laboratorios, una alta y esbelta torre para
las oficinas y dos bloques compactos para los auditorios, que conformaban un conjunto perfectamente organizado.
Otra mirada diferente, era la desarrollada por Archigram10; un grupo de
arquitectos, con sede en Londres, que inspirados en el uso de la tecnología, buscaban desarrollar una nueva realidad futurista. A partir del
diseño de una arquitectura de “…estructuras extensibles, películas neumáticas móviles, paredes y pavimentos adaptables, robots de servicio y
carretillas eléctricas plegables” (Jencks, 1975, p. 102) imaginaban una
nueva sociedad de profundo tinte positivista donde la tecnología transformaría el mundo y a la humanidad.
9. Le Corbusier bautizó ese recorrido como promenade architecturale o “paseo
arquitectónico”.
10. Los principales miembros fueron: Peter Cook (1936), Jhoana Mayer, Warren
Chalk (1927-1988), Ron Herron (1930-1994), Dennis Crompton (1935), Michael
Webb (1937) y David Greene (1937).
91
Parte II. Algunas ideas de paradigma y sus ciclos
Conceptualmente, Archigram, extraía sus ideas de todas las partes posibles: “…ojos de insectos de la ciencia ficción, bolsas tubulares de las
refinerías de aceite, paredes robot telescópicas de los libros de historietas, y redes tensoras y estructuras espaciales de la tradición arquitectónica”. En lo referente al urbanismo, imaginaron una ciudad dinámica,
instantánea, que se apartaba del concepto de ciudad mecanizada de
carácter monumental, para acercarse al desarrollo de un “…sistema de
control ambiental que ayuda[ra] a la elección personal y respond[iera] al
capricho y [al] deseo individual”. Una especie de “… circo ambulante que
visitase diferentes ciudades en la[s] provincia[s] e implicara la participación de individuos en la creación de diferentes acontecimientos” (Jencks,
1975, p. 102-104).
Uno de sus ejemplos fue Walking City, diseñada en 1964, por el arquitecto inglés, Ron Herron (1930-1994). Una ciudad que podía desplazarse, transportando a su población a cualquier parte del mundo, utilizando
para ello una serie de patas “mecánicas” telescópicas: una ciudad de “…
redes tensoras sostenidas por globos, grúas, puentes, robots y signos
de neón que recuerdan Las Vegas” (Jencks, 1975, p. 102), y que conformaban un nuevo perfil urbano futurista.
Desde el punto de vista de Archigram, era más económico mover las
cosas que las personas: “… a causa del incremento de las industrias
especializadas, tales como la electrónica, puede muy bien ser que el
hogar futuro se encargue de muchas de las funciones que hoy se hacen
en la fábrica” (Jencks, 1975, p. 103).
Fig. 13. Walking City. Entendida como
una máquina, la ciudad podía desplazarse, transportando a su población a
cualquier parte del mundo, utilizando
para ello una serie de patas telescópicas.
92
Otro ejemplo interesante al respecto, fue Plug-in City o “Ciudad enchufable”, diseñada en 1964, por el arquitecto inglés Peter Cook (1937-1995).
Una “… estructura básica extensible servida por ferrocarriles, helicópteros
y hovercrarfts (colchones de aires)”. Unidades insertadas en el sitio, las
cuales podían “… ser seleccionadas y descartadas cuando ya resulta[ran]
anticuadas o fuera de uso” (Jencks, 1975, p. 101): la estructura básica,
Marcelo A. Fraile - Arquitectura biodigital
tenía un periodo de vida de cuarenta años, “… que mant[enia] el sistema
Fig. 14. Plug-in City. Una “... estructura
en movimiento en un ciclo de veinte años y casas que [podían] ser localizadas de nuevo y fijadas allí cada quince años” (Jencks, 1975, p. 104).
básica extensible servida por ferrocarriles, helicópteros y hovercrarfts (colchones de aires)”. (Jencks, 1975, p. 101).
Ambas ideas Walking City y Plug-in City, funcionaban complementariamente una de la otra: la primera se movía por el territorio hasta encontrar
el lugar adecuado; en tanto que la segunda, conectaba las diferentes
ciudades, unas con otras.
El comienzo del fin
Bajo un lenguaje expresivo de volúmenes simples y de precisas geometrías flotantes, la arquitectura moderna parecía unir la mirada de
arquitectos tan diferentes como Le Corbusier o Peter Eisenman. Una
arquitectura hilemórfica, de espacios matemáticos, planos interceptados y entidades abstractas, donde la forma era consecuencia de la
función a la que albergaba. Un estilo capaz de ser aplicado internacionalmente, con edificios virtualmente idénticos en cada continente
(Ibelings, 1998, p. 37).
Lejos de las condicionantes historicistas, y bajo una imagen desmedidamente industrial aplicada en la arquitectura, proponían una ruptura
con el romántico mundo decimonónico. Una nueva expresividad racional
elaborada a partir de formas puras y abstractas, cubiertas planas, formas dinámicas y transparentes, conformadas por nuevos materiales y
nuevas tecnologías inspiradas en el universo de la máquina (Montaner,
1997, p. 113).
Una arquitectura de dispositivos artificiales formados por piezas fijas y
móviles, que se combinan y ordenan para formar un sistema cerrado de
partes que interactúan entre sí, sin una clara relación con el entorno.
Con una fe ciega en el papel benefactor de la tecnología, los arquitectos
modernos habían dejado de preocuparse por su relación con el clima o
Fig. 15. De Candela o Frei Otto, una
arquitectura formada por piezas fijas y
móviles, que se combinan y ordenan
para elaborar un sistema cerrado de
partes que interactúan entre sí, sin
una clara relación con el entorno.
93
Parte II. Algunas ideas de paradigma y sus ciclos
con el ambiente. En este sentido, si el edificio era “…demasiado caluroso o demasiado frío, todo se reducía
a una cuestión de reforzar el equipo de refrigeración o de calefacción. Si se requería un nuevo material, la
industria de fabricación de materiales de construcción suministraría, encantada, el material necesario” (Roth,
2010, p. 525).
Sin embargo, no todos los arquitectos pensaban igual, muchos de ellos se quejarían de lo que consideraban era
un desatino. Uno de ellos fue el arquitecto americano Frank Lloyd Wright (1867-1959). Para Wright, intentar que
un edificio se asemejara a un barco, aeroplano o locomotora, era un esfuerzo infantil y ultrajante: la máquina debería construir el edificio, naturalmente y espléndidamente, “Pero no es necesario por esa razón construir como
si el edificio fuese también una máquina, porque, salvo en un sentido muy elemental, no lo es, ni se le parece”
(Díaz Segura, Alfonso, 2011, p. 73). Como tampoco lo era su arquitectura de espacios libres, fluidos y flexibles.
No es de sorprender que, con el tiempo, esta arquitectura, degenerase “…hasta convertiste en el verdugo de la
imaginación… [dando como] consecuencia la repetición constante de idénticas cajas anónimas que domina[sen]
enormes áreas de las ciudades contemporáneas” (Ingels, 2009, p. 2).
Pese a esto, su arquitectura acabaría “…asociándose a dos principios fundamentales de la modernidad: a la
belleza de la construcción siempre que manifieste la tecnología actual moderna, y a la solución estricta de
los requerimientos funcionales, como si el goce estético fuera una consecuencia directa de la satisfacción del
programa” (Díaz Segura, Alfonso, 2011, p. 15).
Para fines de la década del 80, un nuevo cambio se avecinaba en el horizonte. En 1988, el arquitecto Philip
Johnson (1906-2005), exdirector del Departamento de Arquitectura y Diseño del Museo de Arte Moderno, se
asoció con el arquitecto Mark Wigley, profesor en la Universidad de Princeton, para organizar una exposición
en el Museo de Arte Moderno (MOMA) de Nueva York, bajo el título Deconstructivist Architecture11: concebido
para examinar la situación actual del diseño, una concatenación de tendencias afines que exploraban una
nueva e inquietante mirada de la arquitectura.
Si bien existían otros exponentes de esta arquitectura, los arquitectos seleccionados para la muestra fueron
siete: Coop Himmelblau12, Peter Eisenman13, Frank Gehry14, Zaha Hadid15, Rem Koolhaas16, Daniel Libeskind17
y Bernard Tschumi18.
Se trataba de una propuesta arquitectónica alternativa, donde cada arquitecto poseía su propia teoría, pensamientos y técnicas de cómo hacer arquitectura.
94
Sin embargo, en esencia, todos los proyectos de esta exposición representaban una sensibilidad diferente en
la que el antiguo sueño de las formas puras había sido alterado por formas contaminadas. Una desviación
del orden estructural.
Una concatenación de tendencias afines en varios lugares del mundo, con un fuerte contraste de formas distorsionadas, irregulares, en conflicto.
Una inestabilidad compleja, dinámica y elegante, que desmantelaba la tradición del movimiento moderno: “la
distorsión es especialmente inquietante porque parece pertenecer a la forma, forma parte de ella. Parece como
si siempre hubiese estado allí, latente, hasta que el arquitecto la ha liberado” (Johnson & Wigley, 1988, p. 17).
11. Traducido en su versión castellana como “Arquitectura Deconstructivista”.
12. Rooftop Remodeling, Vienna, 1985; Hamburg Skyline, 1985 y Apartment Building, Vienna, 1986, Coop Himmelblau de
Vienna, Wolf D. Prix (b. 1942, Vienna) y Helmut Swiczinksy (b. 1944, Poznan, Poland).
13. The Biology Center for the University of Frankfurt, competition, Peter Eisenman, Frankfurt, 1987.
14. The Gehry House, Santa Mónica, 1977-87 y The Familian Residence, Santa Mónica, 1978, Frank Gehry.
15. The Peak, competition, Zaha Hadid, Hong Kong, 1983.
16. The Rotterdam Building and Tower, commission, Rem Koolhaas, Roterdam, 1981.
17. The City Edge, competition, Daniel Libeskind, Berlín, 1987.
18. Park de la Villette, competition, Bernard Tschumi, París, 1982.
Marcelo A. Fraile - Arquitectura biodigital
El paradigma de la modernidad se había agotado, sus grietas antes ocultas quedaban visibles y manifestaban muchas de las incongruencias
ahora presentes.
Internet, sistemas CAD, máquinas CNC, nuevas anomalías afloraban una
a una tras los muros de una teoría vetusta, impropia para la dinámica de
los nuevos tiempos.
Figuras
Fig. 1. Puente Shrompshire sobre el Río Severn. http://www.arquitecturaenacero.
org/historia/puentes/puente-shrompshire-sobre-el-rio-severn-coalbrookdale-gb
Fig. 2. Palacio de Cristal. Londres. https://www.archdaily.com/397949/ad-classicthe-crystal-palace-joseph-paxton
https://www.britannica.com/topic/Crystal-Palace-building-London
Fig. 3. Kazimir Malevich. http://www.proa.org/esp/exhibicion-kazimir-malevichobras.php
Fig. 4. y Fig. 5. Bauhaus. http://www.cultier.es/bauhaus-la-primera-escuela-dediseno-del-siglo-xx/
Fig. 13. En 1988, el arquitecto Philip
Fig. 6. Fritz Kahn. https://contentcatnip.com/2016/01/22/fritz-khans-paintings-indreamy-animation/
Mark Wigley, para organizar una expo-
Fig. 7. Modulor. http://www.fondationlecorbusier.fr/corbuweb/morpheus.aspx?
sysId=13&IrisObjectId=7837&sysLanguage=en-en&itemPos=9&itemSort=enen_sort_string1&itemCount=33&sysParentName=Home&sysParentId=11
(MOMA) de Nueva York, bajo el título
Fig. 8. Neufert. https://www.archdaily.com.br/br/623095/o-ser-humano-comomedida-da-arquitetura/537bc8c4c07a80946d0000c5-o-ser-humano-comomedida-da-arquitetura-foto
Fig. 9. Casa Dom-Ino. http://www.fondationlecorbusier.fr/corbuweb/morpheus.as
px?sysId=13&IrisObjectId=5972&sysLanguage=en-en&itemPos=1&itemSort=enen_sort_string1&itemCount=1&sysParentName=Home&sysParentId=11
Fig. 10. Casa Citrohan. http://www.fondationlecorbusier.fr/
corbuweb/morpheus.aspx?sysId=13&IrisObjectId=5950&sysLa
nguage=en-en&itemPos=96&itemSort=en-en_sort_string1%20
&itemCount=215&sysParentName=&sysParentId=65
Fig. 11. y Fig. 12. Villa Savoye. http://www.fondationlecorbusier.
fr/corbuweb/morpheus.aspx?sysId=13&IrisObjectId=7380&sysL
anguage=en-en&itemPos=74&itemSort=en-en_sort_string1%20
&itemCount=79&sysParentName=&sysParentId=64
Johnson, se asoció con el arquitecto
sición en el Museo de Arte Moderno
Deconstructivist Architecture.
95
Parte II. Algunas ideas de paradigma y sus ciclos
Fig. 13. Walking City. https://jm3studio.com/archigram-sicodelia-arquitectonica/
Fig. 14. Plug-in City. https://jm3studio.com/archigram-sicodelia-arquitectonica/
Fig. 15. Frei Otto - Felix Candela. https://www.plataformaarquitectura.cl/
Fig. 16. Deconstructivist Architecture. https://www.archdaily.com.br/br/623095/o-ser-humano-como-medida-da-arquitetura/
537bc8c4c07a80946d0000c5-o-ser-humano-como-medida-da-arquitetura-foto
96
Marcelo A. Fraile - Arquitectura biodigital
EL ESTADO DE CRISIS SEGÚN KUHN
Obtenido de las ciencias físicas e importado dentro del campo disciplinar de la arquitectura, el concepto de
paradigma de Thomas Kuhn representa el marco teórico que encuadra esta investigación, el cual define las
directrices y estructuras de soporte que posibilita explicar “…el mayor número de observaciones empíricas
dentro del mismo marco teórico sin perder la coherencia” (Vidal Climent, 2010, p. 212).
Dentro de este modelo de análisis, el concepto de anomalías, es utilizado para definir los desajustes teóricos
incapaces de ser explicados mediante el modelo vigente, derivando en un reajuste del paradigma sin que esto
signifique una pérdida de la confianza puesta en el marco teórico.
Sin embargo, en caso de que estas anomalías se acumulen sin resolver “parte de la comunidad científica menos conservadora advertirá la presencia de una situación de crisis [y] buscará alternativas …a las cuestiones
… en las que descansa el paradigma existente” (Vidal Climent, 2010, p. 212). Son las revoluciones científicas
de Kuhn: un desarrollo no acumulativo de nuevos fundamentos, que reemplaza el antiguo paradigma por otro
nuevo, incompatible con el anterior.
Kuhn explica este proceso bajo el concepto de inconmensurabilidad, una “…reconstrucción [discontinua] del
campo de investigación a partir de nuevos fundamentos” (Ortega Barnuevo, 2015, p. 28) que reescriben la
historia tras cada revolución.
En arquitectura, estas anomalías quedarían expresadas en situaciones que no encuentran explicación dentro
del paradigma presente y suscitan un estado de crisis general en la que algunos jóvenes diseñadores, no
habituados a los comportamientos anteriores, intentarán cambiar el modo de enfrentarse a estos nuevos escenarios, planteando una modificación del lenguaje, de los criterios y el reemplazo de las antiguas herramientas.
Durante este período de tiempo, es decir hasta que el nuevo paradigma quede firmemente establecido, su
arquitectura será insegura y fluctuante, un desconcierto sin dirección que transitará por diferentes derroteros.
Finalmente, en caso de que este nuevo enfoque teórico planteado resista todas las comprobaciones teorías
y sea capaz de predecir nuevas observaciones, adquirirá la unidad suficiente como para producir el cambio
de paradigma.
Asumido el nuevo modelo, ya no será necesario replantearse las cuestiones anteriores, quedando algunas
anomalías pendientes de explicación y que en el futuro darán lugar al desarrollo de nuevas teorías.
La fusión de los sólidos
“Hemos asistido a tantos nacimientos, a tantas muertes y resurrecciones, que hemos aprendido a que estas
cuestiones adquieran un valor muy relativo”. (Soriano, 2004, p. 7).
Una serie de hechos trascendentales han marcado el fin de la modernidad. Para el arquitecto estadounidense
Charles Jencks (1939), la Arquitectura Moderna, “…murió en St. Louis Missouri, el 15 de julio de 1972 a las
3:32 de la tarde (más o menos), cuando a varios bloques del infame proyecto Pruitt-Igoe se le dio el tiro de
gracia con dinamita” (2004, p. 9).
Una arquitectura que había agotado sus recursos formales y que degeneró en un producto anónimo, “…visualmente empobrecedor, tecnocrático, a gran escala e indiferente por igual a la gente y al entorno” (Ibelings,
1998, p. 13).
97
Parte III. El punto de inflexión
Bajo un modelo dominante, caracterizado por una producción seriada, los diseñadores habían reducido las
actividades humanas a simples y rutinarios movimientos que debían seguirse de manera mecánica, manteniendo al límite todo indicio de espontaneidad. Un modelo global que había instaurado una visión idealizada
de un progreso ilimitado, que explotaba intensivamente sus recursos naturales igualmente inagotables (Montaner, 1997, p. 10).
Metáforas tales como “‘cajas de cartón’, ‘cajas de zapatos’, ‘hueveras’, ‘archivadores’ y ‘papel cuadriculado’”
(Jencks et al., 2004, p. 40) eran frecuentemente utilizadas de un modo despectivo por el público y por los críticos para referirse a este tipo de arquitectura.
Para el arquitecto estadounidense Paul Rudolph (1918-1997), el paradigma moderno –con una mirada simplista–, seleccionaba y determinaba cuáles de todos los problemas existentes iba a poder resolver. Por ejemplo:
“Mies construye edificios bellos solo porque ignora muchos aspectos de un edificio. Si resolviese más problemas, sus edificios serían mucho menos potentes. La doctrina ‘menos es más’ deplora la complejidad y justifica
la exclusión por razones expresivas” (Venturi & Scully, 1995, p. 28).
La contaminación natural, el calentamiento global y un agotamiento de los recursos no renovables habían
puesto en crisis el viejo paradigma mecanicista que promovía un progreso y crecimiento ilimitado sin consecuencias. Había llegado la hora de rendir cuentas “…no solo de su capital artificial sino también de su segundo
capital no reintegrable, el de la naturaleza” (Venturi & Scully, 1995, p. 40).
Inútiles serían los esfuerzos de sus defensores más fieles, como el caso del ex secretario de los CIAM, el
arquitecto suizo Sigfried Giedion (1888-1968), que abogaba por una arquitectura moderna que recuperase el
sentido espacial colectivo que había tenido en el pasado.
El modelo estaba ya agotado, y las vanguardias enardecidas reclamaban “…la reescritura de una historia reciente construida de manera demasiado homogénea, mecánica y lineal” (Montaner, 1997, p. 8).
Era necesario una reevaluación de sus logros y un mea culpa de sus fracasos: se requería una reinvención
armónica de la tecnología como factor clave para el desarrollo de la humanidad y del planeta. Una nueva concepción desarrollada a partir de una sensibilidad por el lugar, que extendiera sus límites más allá de lo regional
y de lo local: una sensibilidad basada en espacios libres, fluidos, ligeros, e infinitos, que se contrapusieran a
los espacios tradicionales de formas identificables, delimitadas, cartesianas y estáticas (Montaner, 1997, p. 30).
98
La crisis de una nueva sociedad capitalista y consumista, dejaba “…a nuestro desafortunado arquitecto moderno sin un elevado contenido social que simbolizar” (Jencks et al., 2004, p. 37).
Una nueva sociedad, carente de certezas y verdades absolutas, de límites difusos y cambiantes, comienza
a evolucionar en múltiples direcciones teñidas por la diversidad de cada contexto. Una nueva sociedad que
parece vivir sobre la superficie de un caos eterno mientras intenta unir, reconciliar y yuxtaponer elementos y
teorías contrapuestas.
El comienzo de la crisis
“Somos interrogadores que llevamos gafas con cristales coloreados; pero si lo sabemos, siempre podemos
ajustarlas de manera que sea posible ver la naturaleza en sus auténticos colores” (Moratalla, 2006, p. 17).
A comienzos de este nuevo siglo, nos encontramos viviendo un momento histórico especialmente sensible.
Para Josep María Montaner, estamos en condiciones de “…tener cierta perspectiva para interpretar la evolución de la arquitectura… y detectar las características más destacables del reciente cambio de siglo” (Montaner, 1997, p. 7).
Marcelo A. Fraile - Arquitectura biodigital
Estamos en presencia de una nueva forma de entender el proyecto arquitectónico, bajo una mirada tecnológico-digital, donde proceso y generación se encuentran teñidos de una búsqueda de optimización y eficiencia
desarrolladas en un ámbito de cierta contundencia formal, donde algoritmos matemáticos, sistemas biológicos
digitales y avanzados sistemas estructurales intentan despegarse de su pesada carga histórico-eclecticista.
Un nuevo paradigma parece comenzar a gestarse en las entrañas de este nuevo siglo
XXI.
Una nueva visión
de la contemporaneidad, que cuestiona los métodos, las teorías y las observaciones tradicionales, y “…nos
lleva a considerar nuevas relaciones entre la arquitectura, el cuerpo, la ecología y las diversas situaciones
geopolíticas que ahora caracterizan el planeta” (Prestinenza Puglisi, 2009, pp. 5-12).
Bajo una obsesión analítica acelerada por una sociedad electrónica, se ha originado una inédita arquitectura,
resultado de numerosas fuentes que producen y reproducen formas impresas a través de una permanente
cadena de reacciones y mutaciones. “Todo vale” en un mundo dominado por la moda, que se expande a través
de las fronteras y produce un incremento de lo irrelevante, de lo arbitrario y lo banal (Prestinenza Puglisi, 2009,
pp. 5-12). Una capacidad de lo ordinario en volverse extraordinario se hace presente por encima de una sobrevaloración estética de las técnicas digitales, sin lograr escapar, muchas veces, de las complejas y caprichosas
formas vacías de contenido.
Un diseño abierto, de prefabricación a la carta, nos augura un futuro libre de los obstáculos y las restricciones
de la propiedad y el derecho de autor: formas abrumadoramente barrocas son ensambladas milimétricamente
mediante sistemas robot, que aprovechan la sinergia de los colectivos digitales.
Un proceso de hibridación constante entre un progreso desmedido y una virtualización electrónica de la vida
ha ocasionado una acumulación de anomalías, que conduce al surgimiento de una crisis paradigmática. Es
el punto donde se produce el cambio de concavidad de la curva, algo que para Bernard Cache es el punto de
inflexión, una singularidad intrínseca, que Leibniz denomina un ‘signo ambiguo’ (Deleuze, 1989, p. 25).
Sin embargo, en esta realidad, es complicado poder definir ese sitio preciso, entre dos puntos próximos. En
realidad, se trata de “…un ‘foco lineal’, [una] línea que surge de líneas” (Deleuze, 1989, p. 31). Una variación
infinita o una curvatura infinitamente variable. Es la curva de Koch: “…que se obtiene a fuerza de redondear los
ángulos según la exigencia barroca, haciéndolos proliferar según una ley de homotecia” (Deleuze, 1989, p. 28).
Nada es simple en la contemporaneidad. A través del uso de la computadora, las formas puras se han complejizado, abandonando la geometría euclidiana para ser reemplazada por formas irregulares, asimétricas, de
planos inclinados e inestables, que alteran la percepción que se tenía del espacio. Un proceso que encuentra
en la tecnología digital el sistema operativo necesario para elaborar sus proyectos: es el medio mismo en que
se piensa, se construye y habita la arquitectura.
Un proceso evolutivo y no lineal que ha conducido a la fragmentación del espacio en trozos y porciones y ha
incorporado, posteriormente, entidades adicionales que son reensamblados, con el objeto de elaborar un todo
diferente, un objeto nuevo en franco contraste con el modelo arquitectónico tradicional.
Desde Gehry a Tshummi, y de Libeskind a Lynn, los arquitectos se han transformado en gestores de proyectos
anómalos: un solapamiento de estructuras “contaminadas”, “retorcidas”, radicalmente alteradas. Una “monstruosa” y distorsionada visión de la realidad, de un futuro utópico, que se aleja de la tradición racionalista para
generar formas autónomas y extrañas que, como un parásito que habita dentro del anfitrión, infecta la arquitectura y la distorsiona: no puede extirparse el parásito sin matar al anfitrión, ni siquiera mediante una técnica
quirúrgica (Johnson & Wigley, 1988, p. 17).
Un desafío a los alores mismos de la armonía, proponiendo un cambio de visión de su estructura: primero se
altera la forma y después se busca el programa, “…la forma no sigue a la función, sino que ‘la función seguirá,
o no a la deformación’” (Bernardele, 1994, p. 189).
99
Parte III. El punto de inflexión
Siete anomalías
Un recorrido trazado,“…que, como las migas de pan… defin[en] el camino de vuelta”. (Vidal Climent, 2010, p. 211).
Desde finales del siglo XX, la arquitectura digital se ha convertido en una invitada cada vez más asidua en las
exposiciones internacionales: una mezcla condensada de “…geometrías aparentemente líquidas y organismos biológicos producidos digitalmente”, han generado en algunos casos, proyectos que “…parecen implicar
algo más que jugar con la tecnología y mostrar una fascinación por los programas de software” (Vrachliotis,
2008, pp. 232-261).
Estamos ante el nacimiento de una nueva arquitectura, que parece rechazar aquellos estilos históricos del
pasado al reemplazarlos con una propuesta innovadora y diferente a lo que hasta el momento existía. Las
formas punzantes e inclinadas del Deconstructivismo son sustituidas “…por suaves y sensuales curvas, ya
anticipadas por Frank Gehry en el proyecto para el museo de la fábrica Vitra en Weil am Rhein, Alemania
(1989)” (Prestinenza Puglisi, 2009, pp. 5-12). Edificios livianos, transparentes, como la representación de “…la
inmaterialidad de la sociedad de la información” (Prestinenza Puglisi, 2009, pp. 5-12).
No es de extrañar, que en estos primeros estadios de desarrollo, distintos diseñadores describan e interpreten
de diferentes modos la misma categoría de anomalías. Estos, generalmente, aparecen “…en forma de artículos breves dirigidos exclusivamente a los colegas profesionales, las personas de las que se pueden suponer
que tienen conocimiento de un paradigma compartido y que resultan ser las únicas capaces de leer los artículos a ellas dirigidas” (Kuhn, 1962, p. 84).
Es lo contemporáneo, el repensar de la disciplina, el motor de cambio en donde se establecen los nuevos
posicionamientos teóricos entre el hombre y su producción arquitectónica. Sin una verdad absoluta, la situación existente se presenta indeterminada, de valores volátiles y estímulos cambiantes, donde la sorpresa, las
múltiples conjeturas, las infinitas explicaciones, han conducido al nacimiento de las primeras anomalías.
En este sentido, el conectar puntos puede ser considerado un método adecuado para su investigación: donde
“…se toman datos, se les da una forma mediante la identificación de puntos significativos y luego se dibujan
líneas entre ellos, creando una forma sólida” (Iwamotto, 2011, pp. 112-121). Es un intento por responder la
pregunta génesis de este pensamiento: si estamos o no ante el nacimiento de un nuevo paradigma en la arquitectura contemporánea.
Es por esto que proponemos el estudio de siete conceptos claves, siete anomalías que nos ayuden a com100 prender y “…comprobar qué aspectos han perdido vigencia, cuáles se han renovado y qué conceptos [nuevos]… han aparecido” (Montaner, 2015, p. 7). Estos son:
1. La globalización: juntos pero divididos.
2. Las nuevas herramientas digitales de representación.
3. La materialidad: prefabricación a la carta.
4. Las complejas formas biodigitales.
5. La ecología: cuando todo es verde.
6. Los Metadiseñadores
7. Los modelos paramétricos.
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 1. GLOBALIZACIÓN: JUNTOS PERO
DIVIDIDOS
“En un cibercafé ignoto de Barcelona, un estudiante de ciencias tiene abiertas catorce ventadas de su programa explorador de Internet.
Comenzó en Google buscando información para un trabajo de su
universidad y termino en el MIT, en una monografía que parece contener esa información. Sin embargo, busca más ejemplos e interpretaciones en otros sitios, otros autores y otros trabajos. Las otras doce
ventanas parecen tener información tangencial acerca del contenido,
pero desea leerlas. No tiene bien en claro dónde va a guardar tantas
referencias ni tanta información, ya que debe levantarse de ese ordenador en minutos. Posiblemente nunca guarde esas páginas entre
sus `favoritos´ o posiblemente lo haga y no las vuelva a revisar jamás”.
(Pimentel, 2004, p. 60).
Para el historiador británico Eric Hobsbawm (1917-2012), el “corto”1 siglo
XX comenzó a vislumbrar su final la noche del jueves 9 al viernes 10
de noviembre de 1989, con la caída del muro de Berlín y el fin de una
Alemania dividida. Un punto trascendental de la historia que marcaba el
colapso de la Unión Soviética, la cual vería su final dos años después,
en 1991. Era el desenlace de la guerra fría, luego de años de silenciosas y cruentas batallas. Una pesada cortina de hierro se levantaba, y el
mundo nuevamente parecía ser solo uno. El capitalismo había vencido
al comunismo, y los moscovitas podían saborear una hamburguesa de
McDonald’s sentados cerca de la plaza de Pushkin, en Moscú.
Sin embargo, el optimismo inicial pronto se vio afectado por un nuevo y
terrible conflicto: la guerra del Golfo. Entre 1990 y 1991, una coalición de
fuerzas compuestas por 34 países y bajo el mando de Estados Unidos
declaraba la guerra a Irak como respuesta a la invasión de Kuwait. Una
terrible contienda que mezclaba ideales de libertad con un trasfondo
económico-petrolífero que lo enturbiaba todo.
101
La guerra del Golfo fue un nuevo tipo de contienda que marco todo un hito
en la historia de los conflictos bélicos. Por primera vez, una guerra era televisada en directo: sentado en la comodidad de su hogar, el telespectador
podía ver, por CNN las 24 horas, a las tropas de la coalición libertadora
combatiendo y muriendo en las calurosas y desérticas tierras de Kuwait.
Gary Shepard, un reportero de la cadena norteamericana de noticias
ABC, transmitía en directo desde el hotel Rashid de Bagdad, mientras
de fondo podían escucharse las explosiones, los disparos de las baterías antiaéreas y los aviones bombarderos.
Bombarderos invisibles que salidos de la nada lanzaban por sorpresa
sus misiles inteligentes, para posteriormente desaparecer casi de in1. En alusión a la clasificación desarrollada por Hobsbawm, que consideró que el
siglo XX, corresponde a un período de 77 años, comprendido entre el comienzo
de la Primera Guerra Mundial (1914) y la caída de la Union Soviética (1991).
Hobsbawm, E. (1998). Historia del Siglo XX. Buenos Aires: Crítica. p. 13.
Fig. 1. El primer McDonald’s de plaza
de Pushkin, en Moscú.
Parte III. El punto de inflexión
mediato. Una maléfica tecnología había reemplazado “…las invasiones
territoriales de las tropas de infantería y el esfuerzo por despojar al enemigo de su territorio” (Bauman, 1999, p. 17).
Lamentablemente, la guerra del Golfo fue solo el comienzo en este nuevo siglo. El 11 de septiembre de 2001, los vuelos 11 de American Airlines
y 175 de United Airlines se estrellaban contra las torres gemelas del
World Trade Center. Un nuevo punto de inflexión, un antes y un después
en la historia del mundo contemporáneo. De este modo, Occidente, ingresaba en el siglo XXI, “…bajo el signo del pánico, y nuestra cultura se
precipit[aba] en las tinieblas de la historia” (Fernández Galiano, 2010, p.
112). Su influencia aún puede sentirse en cada aeropuerto del planeta:
cada pasajero es sometido a una serie de rigorosos escaneos y controles. Por un instante, uno pierde todos sus derechos constitucionales para
convertirse en un sospechoso: es despojado de su calzado, cinturón,
abrigos y elementos electrónicos, todo en pos de la seguridad general.
Uno es culpable hasta que se demuestre su inocencia.
Fig. 2. Gary Shepard, un reportero de
la cadena norteamericana de noticias
ABC, transmitía en directo desde el
hotel Rashid de Bagdad, mientras de
fondo podían escucharse las explosio-
Sumido en las convulsiones de sus transes financieros e institucionales,
y que parecen reflejar el declive impreciso de una crisis global que se
extiende como una mancha de aceite de continente en continente (Fernández Galiano, 2010, p. 112), el nuevo milenio se nos presenta bajo
una “modernización incompleta” (Alonso, 2009, p. 11), falto de encanto,
plano, asimétrico, e incapaz de ajustarse a un mundo paralizado e inerte
que lucha por salir adelante.
Para la filósofa estadounidense Susan Buck-Morss, el nuevo siglo XXI
nos ha desilusionado francamente (Alonso, 2009, p. 11), nos había prometido progreso y bienestar pero, en su andar amnésico, hasta el mo-
aéreas y los aviones bombarderos.
mento solo nos ha mostrado guerras, recesión económica, y un aumento de las desigualdades sociales.
Fig. 3. El 11 de septiembre de 2001,
Sin embargo, no todo ha sido caos y guerra en el siglo XXI. Con la introducción de internet e importantes avances en materia de micro y nanotecnología, se ha generado un nuevo modo de concebir el universo:
nuestro mundo se ha vuelto más pequeño y parece girar cada vez más
rápido. El escritor estadounidense Alvin Toffler (1928-2016) lo definía
como el “shock del futuro”, “una desastrosa tensión y desorientación que
provoca en los individuos (los excesivos cambios) en un lapso de tiempo
demasiado breve” (1970).
nes, los disparos de las baterías anti-
102
los vuelos 11 de American Airlines y
175 de United Airlines se estrellaban
contra las torres gemelas del World
Trade Center.
El uso de nuevas tecnologías ha transformado la vida de la sociedad
contemporánea. Un profundo impacto cultural, con un proceso de renovación que intenta reemplazar el modelo anterior, ahora obsoleto, por
uno inspirado en lo digital, en lo tecnológico. Un modelo complejo por
naturaleza, que presenta en su esencia una contradicción (real-virtual),
consecuencia inevitable de su situación.
Zygmunt Bauman (1925-2017) filósofo y ensayista polaco, muy preocupado por los cambios que se están produciendo en la humanidad, en su
libro Modernidad líquida relacionaba la sociedad contemporánea con el
Marcelo A. Fraile - Arquitectura biodigital
fenómeno físico de fluidez “…una disolución de los viejos conceptos,
donde antiguas teorías han sido y están siendo refutadas, dando paso a
otras nuevas, mucho más complejas y relativas”(1999, pp. 7-20).
Una realidad con múltiples puntos de vista, carentes de linealidad, establece nuevos modos de expresar todo tipo de sensaciones a través de
infinitas pantallas. Un aluvión efímero de posibilidades, producto de las
nuevas tecnologías, emula digitalmente las relaciones de una sociedad
individualista, donde el límite solo lo define la imaginación del sujeto.
De la net a la internet
“Por su parte, el fenómeno extraordinario de la red, que de hecho ha
creado la biblioteca infinita de Borges, nos concede a la vez un depósito laberíntico de conocimiento y un archipiélago de información
trivial o entretenimiento vacuo. Didáctica o diversidad, esa red digital
teje nuestra existencia cotidiana y nuestra experiencia del mundo,
pautando las relaciones sociales y laborales lo mismo que potencia
y modifica la percepción de la arquitectura”. (Fernández-Galiano,
2009, p. 3).
Conceptualmente, la primera red informática fue el sistema SAGE (semi-Automated Ground Environment. Medio Terrestre Semiautomático),
un sistema desarrollado por la Fuerza Aérea Norteamericana a fines de
Fig. 4. Zygmunt Bauman, preocupado
por los cambios que se están produciendo en la humanidad, en su libro
Modernidad líquida relacionaba la
sociedad contemporánea con el fenómeno físico de fluidez.
la década de 1950, para el procesamiento y traducción de los datos generados por los radares.
Paralelamente, en 1959, el ingeniero estadounidense Paul Baran (19262011) comienza a trabajar en una red segura, frente al temor de que
una explosión nuclear neutralizase las comunicaciones telefónicas. Tres
años después, en 1962, el informático estadounidense Joseph C. R. Licklider (1915-1990) desarrollaría el concepto de una red de computadoras comunicadas entre sí.
En 1965, durante la Guerra Fría, la Defense Advanced Research Projects Agency (DARPA. Agencia de Proyectos de Investigación Avanzados
de Defensa), de Estados Unidos, buscaba desarrollar una red totalmente
descentralizada que comunicara las computadoras, inmune a cualquier
daño electromagnético que pudiera provocar un ataque nuclear. Como
consecuencias de estas investigaciones, en 1969, el Departamento de
Defensa de los Estados Unidos, y el Advanced Research Projects Agency (ARPA. Agencia de Proyectos de Investigación Avanzados) desarrollarían ARPANET: una red que conectaba las computadoras de cuatro
universidades de la costa oeste: la Universidad de California en Los Ángeles (UCLA), el Stanford Research Institute, la Universidad de Utah y
la Universidad de California en Santa Bárbara.
Sin embargo, el gran salto tecnológico se produciría cuando ARPANET
se extendió e integró el mundo académico. Para septiembre de 1973, el
proyecto ya organizaba a más de 40 universidades y diferentes centros
de investigación de los Estados Unidos. Una red utilizada por programa-
103
Parte III. El punto de inflexión
dores, académicos e informáticos, para enviar mensajes e intercambiar
información.
La primera vez que se utilizó la palabra Internet (acrónimo de Interconnected Networks. Redes interconectadas) fue en un artículo titulado
“Specification Of Internet Transmission Control Program”2, publicado en
diciembre de 1974, por los investigadores de la Universidad de Stanford,
Vinton Cerf, Yogen Dalal y Carl Sunshine, para describir una red de protocolos globales que permitía enviar información dentro de la red.
Cuatro años después, se desarrollaba en la ciudad de Chicago la primera red inalámbrica de transmisión de datos: denominada G1 (generation
1), que consistía en la interconexión de una serie de antenas de radiofrecuencia –denominadas células–, las cuales creaban una red invisible
capaz de enviar y recibir datos. Una vez recibida la información, esta era
derivada hacia terminales o sistemas telefónicos. Con el tiempo, este
sistema evolucionaría y recibiría el nombre de G2, G3, G4, etc. Para
la década de 1980, se comienza a experimentar con redes de fibra de
vidrio: un sistema que permitía la transferencia de imágenes, sonidos y
datos, en múltiples canales.
Sin embargo, aún existía un gran inconveniente: cada empresa tenía su
propio lenguaje para la transmisión de datos3, los cuales eran incompatibles entre sí, dificultando la vinculación entre compañías. Esto obligaría encontrar con urgencia una serie de protocolos de comunicación que permitieran la comunicación directa entre compañías de diferentes fabricantes.
La solución llegaría en 1983, cuando todas las computadoras centrales
104
Fig. 5. Sistema SAGE (semi-Automated Ground Environment. Medio
Terrestre Semiautomático), un sistema desarrollado por la Fuerza Aérea
Norteamericana a fines de la década
de 1950, para el procesamiento y traducción de los datos generados por
los radares.
de ARPANET, adoptaran el NCP (Networtk Control Protocol. Protocolo
de control de red), un protocolo de comunicación que se venía utilizando desde 1970, por el TCP/IP4 (Transmission Control Protocol/Internet
Protocol. Protocolo de Control de Transmisión / Protocolo de Internet): un
protocolo inventado por el ingeniero Vint Cerf (1943) y el profesor Robert
Kahn (1938), que permitía la comunicación de sistemas operativos tan
dispares como MS-DOS, Unix, Macintosh, o OS/2.
Poco tiempo después, ARPANET quedaba dividida en dos diferentes
redes: una de uso exclusivamente militar, la MILNET; y otra de uso civil,
que permitiría la comunicación entre universidades, centros de investigaciones, y oficinas del Gobierno.
En marzo de 1989, un ingeniero y científico de la computación, el británico Thimothy Berners Lee (1955), buscando resolver un problema práctico en CERN (Conseil Européen pour la Recherche Nucléaire. Consejo
Europeo para la Investigación Nuclear), comenzó a esbozar en un ar2. Traducido como “Especificaciones del programa de control de transmisiones
en internet”.
3. Por ejemplo, IBM tenía el SNA (System Network Architecture), Honeywell
tenía el DSA, (Distributed System Architecture), etcétera.
4. Internet Protocol (IP). “Un protocolo es un conjunto de normas que siguen
los ordenadores de una red y que permite que la comunicación entre ellos sea
posible”. Groisman, M., “Ciclos, líneas y tramas”, en Montagu, A. (2004). Cultura
Digital: comunicación y sociedad, Buenos Aires: Paidós, p. 205.
Marcelo A. Fraile - Arquitectura biodigital
tículo titulado “Information Management: A Proposal”5, el concepto de un sistema universal que permitiera
vincular la información existente en miles de computadoras, mediante la utilización de una tecnología denominada hipertexto. Sin embargo, los conceptos de Berners-Lee no tuvieron gran repercusión y debieron esperar
hasta diciembre de 1990, para que el mismo Berners-Lee, junto con el belga Robert Cailliau, pudieran desarrollar la primera comunicación entre una persona y un servidor, a través del uso del protocolo HTTP (HyperText
Markup Language): un lenguaje desarrollado para la elaboración de páginas web.
Tres años después, en 1993, nacía la World Wide Web (www), un sistema que permitía el trabajo y el intercambio de información dentro de la red. En abril de ese año, el Centro Europeo para la Investigación Nuclear
hacía accesible la red a todo el mundo, y para noviembre, el National Center for Supercomputing Applications
(Centro Nacional de Aplicaciones de Supercomputación) de EE.UU. lanzaba Mosaic, el primer navegador de
acceso público del mundo: un programa que los usuarios utilizaban para acceder a la red. Tiempo después
sería adquirido por Microsoft y renombrado como Internet Explorer.
En 1994, Berners-Lee funda en el MIT el Consorcio de la World Wide Web (W3C), cuyo objetivo sería supervisar y desarrollar la tecnología en la que se basa el funcionamiento de Internet. Tres de estos elementos serán:
el lenguaje HTML (HyperText Markup Language), un lenguaje de etiquetas de hipertexto; el protocolo HTTP
(HyperText Transfer Protocol), y el sistema de localización de objetos en la web URL (Uniform Resource Locator).
Ese mismo año, aparece Netscape Navigator, un navegador comercial que se convertiría en el navegador
universal por excelencia.
Pronto, el sistema monodireccional de la web 1.0 sería reemplazado por la web 2.0, una red bidireccional donde el internauta pasaría de ser espectador a protagonista.
Una de las herramientas centrales de la web 2.0 sería el desarrollo de los blogs: una plataforma online donde
cualquiera podría publicar textos, imágenes, sonidos y videos.
Uno de los ejemplos paradigmáticos y más comentados de la utilización de los blogs sucedió en 1991, durante la
guerra de Irak, cuando Salam Pax (1973), seudónimo de Salam Abdulmunem, un periodista de origen iraquí, escribía su blog desde Bagdad con noticias de la guerra, mientras afuera de su casa se producían cruentas batallas.
En el 2001, la enciclopedia virtual Wikipedia comenzaba a operar, “…con el objetivo expreso de convertirse
en una fuente de referencia universal creada y mantenida exclusivamente mediante el esfuerzo voluntario y
abierta a todo aquel que quiera colaborar” (Chatfield, 2012, p. 46).
Actualmente, internet ha inundado todos los ámbitos de la actividad humana, lo que produjo una auténtica
revolución tecnocientífica, donde la información se ha transformado en el elemento clave: una matriz de interconexiones, “…multidireccional, fragmentada e hipertextual”, una representación compleja de un universo en
incesante movimiento.
El largo camino hacia la virtualización de lo real
La Biblioteca de Babel de Borges, tiene su materialización aparente en la red: “…sugiere lo imposible pues
insinúa la dicha de lo ilimitado, una realidad sin fronteras”. (Zátonyi, 2007, p. 41).
Nuevos modos de comunicación se hacen presentes en la sociedad de la información. Se ha superado la
visión clásica del modelo Shannon-Weaver6, que hacía necesario un “emisor”, un “receptor” y un “canal”. Ahora,
internet transforma la sociedad, y la interacción entre los individuos varía el registro del conocimiento huma5. Traducido como “Gestión de la información: una propuesta”.
6. En relación con el modelo matemático de la información, desarrollado a finales de la década de 1940 por el matemático,
ingeniero y criptógrafo estadounidense Claude Elwood Shannon (1916-2001) y el biólogo e informatólogo estadounidense
Warren Weaver (1894-1978).
105
Parte III. El punto de inflexión
no: “Los ordenadores, la informática e internet han hecho surgir nuevas
formas de trabajo, de aprendizaje y de comunicación” (Orcivoli, 2004, p.
95). Para el profesor Arturo Montagu, vivimos en “sociedades superconectadas”, donde los cables comienzan a ser sustituidos por el wireless7,
una nueva tecnología que manipula, almacena e intercambia la información de forma digital.
Pantallas digitales se transforman en ventanas hacia el mundo exterior,
espejos de una realidad fragmentada y difusa. Una versión de alta tecnología, aislada y protegida por gruesas murallas digitales. Un espacio
controlado y monitoreado, que hace 20 años podría haber formado parte
de una novela de ciencia ficción, se ha transformado en una realidad:
una obra abierta, donde cada sujeto está en condiciones de crear sus
propios recorridos.
Vivimos en un mundo real, sin embargo, este coexiste con lo digital, y en
él se refleja, se comunica y cambia. Estamos en presencia de una virtualización de la realidad, donde el cuerpo físico es codificado en ceros
y unos, “…un código binario que podrá ser descodificado, transmitido y
tratado por multitud de dispositivos de forma prácticamente instantánea”
(Castro Pinzón & Troncoso, 2005).
Por momentos, ambas identidades confluyen en algunos puntos en común: mundos reales, observados y vigilados a través de cámaras digitales que crean mundos seguros, protegidos bajo estrictas redes satelitales. Un mundo contemporáneo donde las barreras entre ambos
universos parecen desdibujarse continuamente.
Fig. 6. Para los fotógrafos Antoine Geiger y Max Cavallari, es innegable la
“…omnipresencia de los smartphones
en la sociedad actual”.
106
Un ejemplo al respecto, podemos observarlo en la película de ciencia
ficción de 1993, Demolition Man8, donde la teniente Lenina Huxley (interpretada por la actriz Sandra Bullock) invita a John Spartan (un policía del pasado siglo XX recientemente descongelado, interpretado por el
actor Sylvester Stallone) a su departamento para mantener relaciones
íntimas. Sin embargo, la excitación inicial de Spartan se ve rápidamente
frustrada cuando la joven teniente extrae de una caja dos “ciber cascos”,
los cuales serán los encargados de consumar el acto, claro está, de un
modo virtual, es decir, sin tener ningún tipo de contacto físico.
Lejos de transformarse en un film de culto, Demolition Man presenta una
visión casi caricaturesca del futuro en el 2032, donde sus habitantes han
sufrido un proceso de infantilización, careciendo de toda maldad.
Sin embargo, esta mirada cinematográfica tendría sus matices de realidad cuando Billie Whitehouse, junto con Ben Moir y Havas Worldwide
7. Wireless (del inglés “sin cables”). Terminología utilizada “…para referirse a la
tecnología que opera sin ellos y conecta diferentes partes de los ordenadores
(es el caso de los periféricos como el mouse o el teclado wireless) o las computadoras entre sí. …donde las computadoras acceden a Internet a través de esta
tecnología”. Montagu, Arturo; Pimentel, Diego; Groisman, Martin, “Introducción”
en Montagu, A. (2004), Cultura Digital: comunicación y sociedad, Buenos Aires:
Paidós, p. 19-20.
8. Demolition Man (1993) es una película de acción y ciencia ficción, producida
por Warner Bros., dirigida por Marco Brambilla y protagonizado por Sylvester
Stallone, Wesley Snipes y Sandra Bullock.
Marcelo A. Fraile - Arquitectura biodigital
desarrollarían Fundawear: una nueva concepción en el diseño de ropa
interior de alta tecnología.
Fundawear es la primera ropa interior con tecnología portátil. Una fina
prenda desarrollada con tela de bambú de gran calidad que oculta en
su interior una serie de sensores que permiten sentir el contacto físico
al transferir de un modo inalámbrico las caricias de una persona, no
importa en qué parte del mundo se encuentre: para ello solo se necesita
tener instalada una aplicación codificada en un teléfono inteligente. Con
cada toque en el teléfono, se transmite a los sensores de Fundawear
una señal que es reproducida físicamente en la piel de quien la utilice y
brinda una sensación similar a una caricia.
Un cuerpo generado a partir de matrices numéricas, códigos binarios e imágenes provistas por la misma web (Castro Pinzón & Troncoso, 2005, pp. 1-8).
Fig. 7. Demolition Man. Película de
ciencia ficción de 1993. La teniente
Lenina Huxley (Sandra Bullock) invita
a John Spartan (Sylvester Stallone) a
su departamento para mantener relaciones íntimas de un modo virtual.
Una falta de corporeidad que, lejos de transformarse en una experiencia
irreal, es una experiencia de curioso voyeur: una red utilizada “…para denunciar las perversidades que el mismo sistema construye” (Evalle, 2006, p. 21).
Producto de un ambiente tecnológico, la sociedad contemporánea se
encuentra inmersa y vive frente a pantallas, mirando hacia otro lado. Una
tecnología capaz de lentificar o acelerar el tiempo, donde cinco minutos
se transforman en una eternidad, si se trata de esperar la respuesta de
un Whatsapp que ya tiene sus dos tildes celestes.
Una red invisible de satélites y antenas nos rastrean permanentemente,
ubicando nuestra posición y estado: disponible / no disponible. Una red inmaterial de avenidas y autopistas que establecen una nueva cartografía para
el hombre superconectado (Pimentel, 2004, p. 34) de la ciudad digital.
Gracias a la tecnología, estamos disponibles y ubicables las 24 horas del
día, los 365 días del año, no importa si estamos en el desierto, en una playa
nudista o en el mismo infierno, lo que nunca debe faltarnos es un smartphone con su batería suficientemente cargada y una buena conectividad 4G.
Una tecnología que posibilita un registro meticuloso de la realidad, al
permitir fotografiar y filmar absolutamente todo. El siglo XXI quedará definido como uno de los siglos mejor documentados de la historia: pareciera que nadie percibe directamente la realidad, siempre se requiere de
dispositivos electrónicos que actúen a modo de filtros, entre el acontecimiento y el individuo.
Nos hemos transformado en cronistas de nuestra vida: los 15 minutos
de Warhol9, nos exigen compartir cumpleaños, vacaciones, cirugías y
comidas en la red. Nada se descarta. La diferencia entre público o privado en nuestra vida queda determinada por un casillero configurado a
veces por default.
Una realidad que se reescribe continuamente, una combinación de múltiples imágenes entrecruzadas y superpuestas, donde cada individuo arma
9. En alusión a la cita “en el futuro todos tendrán sus 15 minutos de fama mundial” atribuida al artista plástico Andy Warhol.
Fig. 8. Fundawear es la primera ropa
interior con tecnología portátil. Oculta
en su interior una serie de sensores
que permiten sentir el contacto físico
al transferir de un modo inalámbrico
las caricias de una persona.
107
Parte III. El punto de inflexión
su propia versión de la realidad, “…permitiendo seguirlas en una misma
línea o eligiendo nuevos caminos de lectura, para volver evidentes las
opciones de desarrollo de los recorridos realizados a partir de la pantalla
del menú”. Una manipulación intrínsecamente digital que se replantea y
es replanteada dentro de un nuevo soporte. Para Manuel Castells, a través
de la tecnología digital, estamos transformando nuestra cultura material
(La Ferla, 2004, p. 61). Un caos frenético, una sobreabundancia de datos,
que hace imposible su catalogación y jerarquización: el gran reto del siglo
XXI
pareciera ser encontrar un sistema efectivo que permita clasificar toda
su información.
Para algunos con una visión positivista de la realidad, esta tecnología nos
posibilita abrir nuevas ventanas a nuevas realidades, ventanas que nos
comunican y relacionan con el resto del mundo; para otros, es una reinterpretación del flautista de Hamelin que, escondido entre las sombras de
ceros y unos, hipnotiza a las masas y nos aíslan a los unos de los otros.
Del ciberespacio a la arquitectura líquida
“No puedo fingir familiaridad con la revolución digital”. (Fernández-Galiano, 2009, p. 3).
El término “ciberespacio” fue utilizado por primera vez en 1984 por el escritor estadounidense –pionero de novelas ciberpunk10– William Gibson
(1948) en su novela Neuromante. Allí, Gibson describe una sociedad
distópica, global, en la cual sus integrantes evaden la realidad, habitando ambientes virtuales a través de la interconexión de una red de
millones de computadoras.
Fig. 9. El término “ciberespacio” fue
utilizado por primera vez en 1984 por
el escritor estadounidense William
Gibson en su novela Neuromante.
108
A partir de su novela, Gibson contribuiría a generar un universo superador de las simples cuestiones físicas. Introduciendo nuevas palabras
como ciberespacio o realidad virtual, crearía todo un vocabulario de términos ciberpunk para describir un nuevo mundo “…creado y nacido de la
yuxtaposición de la mente humana y la cibernética” (Orciuoli, 2005, p. 37).
En pleno auge de la globalización, frente a un incremento de la velocidad de las conexiones y un aumento de su accesibilidad, el concepto
de ciberespacio puede ser entendido como un espacio efímero, virtual,
ajeno a los espacios euclidianos; un espacio sin extensión, que permite penetrar, recorrer y “vivir” ilusoriamente el interior de una imagen
(Gubern, 1996, p. 167). Un universo concebido digitalmente, en el cual
las identidades son mutables dentro de una inagotable base de datos
alfanuméricas.
Una realidad que nos separa de la realidad cotidiana, para sumergirnos en
un mundo lejano y fantástico. Un modelo rizomático donde no existe un centro jerárquico y cualquier elemento puede influir en las características de
otros elementos, no importa cuál sea su posición dentro de la estructura.
10. Véase Lawrence Person, “Notas hacia un Manifiesto de Post cyberpunk”, primera publicación en Nova Express edición 16 (1998), posteriormente publicada en
Slashdot.
Marcelo A. Fraile - Arquitectura biodigital
Uno de los ejemplos más representativos al respecto es el pabellón ruso
de la XIII Bienal de Arquitectura de Venecia del 2012, un diseño de los
arquitectos SPEECH Tchoban & Kuznetsov. Un proyecto destinado al
desarrollo y promoción de las ciencias a través de un enfoque innovador:
tres habitaciones completamente cubiertas de piso a techo con losetas
plásticas retroiluminadas en donde se exhibían códigos QR.
El público que recorría la muestra debía contar con un smartphone o
tablet, que además estuviera equipado con un software lector de código
QR, con el fin de descodificar el mensaje.
A través de estas ventanas digitales, los visitantes transitaban los espacios del pabellón y descubrían a su paso una catarata de videos, imágenes y sonidos: una virtualización de la arquitectura que requería de
dispositivos digitales para poder descubrirla, para poder entenderla: ya
no se distinguían los límites entre lo virtual y lo real.
Inundados por este proceso de virtualización, parece estar emergiendo una
nueva arquitectura “…para la cual las nociones posmodernas de lugar, contexto e identidad han perdido en buena medida su significado” (Ibelings,
1998, p. 10) para ser reemplazadas por otros sin existencia física.
Un espacio binario, donde máquinas y humanos interaccionan, cambiando su configuración como si de líquidos se tratase. Una realidad
alternativa, de geometrías topológicas, exentas de las leyes físicas y
operada por nuestros cerebros.
El arquitecto ateniense Marcos Novak (1957) ha comparado este fenómeno digital con el proceso que sufren los sólidos al transformarse en
estado líquido: “…una variabilidad radical dentro de un contínuum que
implica una cosa y su opuesto” (Picon, 2004, pp. 114-121). Tiempo después, Novak llevaría este concepto al desarrollo de una arquitectura que
denominaría como líquida: término que había sido utilizado en 1991 en
el libro “Cyberspace”, de DIrk Benedikt.
Fig. 10. Pabellón ruso de la
XIII
Bienal
de Arquitectura de Venecia del 2012,
un diseño de los arquitectos SPEECH
Tchoban & Kuznetsov.
109
Parte III. El punto de inflexión
110 Fig. 11. A través de estas ventanas digitales, los visitantes transitaban los
espacios del pabellón y descubrían a
su paso una catarata de videos, imágenes y sonidos.
Lejos del espacio físico, Novak va a desarrollar su “arquitectura líquida”, mediante una serie de maquetas virtuales que irá deformando a través de algoritmos matemáticos y funciones paramétricas, utilizando la música como
detonante, elaborando perspectivas quiméricas, espacios irreales y un sinnúmero de operaciones plásticas de deformación (Pimentel, 2004, p. 48).
Una arquitectura de cuatro dimensiones, lejos de las leyes terrenales, de
los colores, las texturas y los materiales convencionales.
En su lógica líquida, Novak utiliza los sistemas digitales como un instrumento para la exploración de nuevas realidades. Una herramienta donde
los procesos de proyectación se transforman en un fenómeno flexible
que fluctúa tanto en el tiempo como en el espacio, cambiando interactivamente. En palabras de Novak “una sinfonía en el espacio”, reducida a
bits de información. Una concepción avanzada del pensamiento donde
las computadoras son un reflejo de la imaginación del diseñador.
Marcelo A. Fraile - Arquitectura biodigital
Una cultura arquitectónica “…cada vez más permeable con el llamado
‘pensamiento computacional’” (Vrachliotis, 2008, pp. 232-261), una tecnología que desafía la gravidez, la pérdida de energía y la economía
de recursos (Ibelings, 1998, p. 12). Bajo una globalización aparente, el
proceso parece unificar formas y escalas; “…bits de un flujo de información que corren por circuitos en forma de impulsos electrónicos…bits
sin peso” (Calvino, 2012, p. 9).
Arquitectura de globalización
“Los testimonios de esta segunda mitad de la historia no están constituidos de textos o de lenguajes, sino de restos silenciosos y brutales
tales como bombas, piedras y estatuas” . (Latour, 2007, p. 123).
En 1968, el filósofo y escritor francés Guy Debord (1931-1994) vaticinó
que “Toda la vida de las sociedades donde rigen las condiciones modernas de producción se manifiestan como una inmensa acumulación de
espectáculos” (Casanovas, 2008).
Los nuevos diseñadores buscan ese cambio, llevan consigo el germen
de la revolución, con “…su lenguaje específico-artístico y con sus conocimientos técnico-científicos simbolizan esta complejidad” (Zátonyi,
2002, p. 52).
Una nueva generación de diseñadores, creadores de tendencias, ob-
Fig. 12. Marcos Novak. Turbulent Topo-
sesionados por la forma y el control, enseñan a la gente cómo habitar
logies.
sus casas y cómo vivirlas. Son los humanistas del siglo
XXI,
expertos en
múltiples temas, desde matemática hasta botánica o moda11: transformados en rock stars, personifican el glamour y la fama mundial, reciben
títulos nobiliarios, son fotografiados frente a presidentes e incluso tienen
su propio club de fans. Generadores de una estética de consumo, una
“…arquitectura escultórica concebida ‘no para ser útil, sino memorable’”
(Von Moos, 2012, p. 112).
Las principales capitales del mundo se disputan sus edificios como si de
obras de arte se tratara: modas pasajeras que van y vienen a una velocidad vertiginosa, “… son valoradas por los medios de comunicación
de acuerdo a la fama y el rango de los actores implicados, y olvidadas
tan pronto como dejan de ser algo novedoso” (Von Moos, 2012, p. 112),
incluso “…antes de haber tenido tiempo de ser gozados plenamente”.
Las ciudades contemporáneas se han transformado en megalópolis,
carentes de un centro. Algo que, para la arquitecta francesa Francine
Fort, directora de Arc en Rêve-Centre de Arquitecture, “…ha pasado a
ser un ‘continuo urbano desterritorializado’” (Arenas, 2010, p. 18): ciudades donde las fronteras tradicionales se han borrado para dar lugar a
otras nuevas, por donde circulan flujos de capitales y de productos. Una
sociedad fluida, como amebas, con acontecimientos inestables, que
se retraen o expanden de acuerdo a las condicionantes de su entorno.
11. En alusión al libro de Cordura Rau, (2008). Why Do Architects Wear Black?,
Vienna & New York: Springer Verlag.
111
Parte III. El punto de inflexión
Ciudades que imposibilitan desarrollar una infraestructura rígida. Son
los “no lugares” de Augè, “…sitios por los cuales nadie siente un apego
particular y que no funcionan como puntos de encuentro a la manera
tradicional” (Ibelings, 1998, p. 66). Sitios controlados, vigilados mediante
cámaras de video, con códigos magnéticos y donde “…parecen hacer
sobrante la presencia de personal de carne y hueso” (Ibelings, 1998, p.
66). Símbolos de una era de la globalización, manifestaciones de una
Fig. 13. Norman Foster en el Estadio
Wembley.
homogeneización: espacios donde nos encontramos “…un poco asustados ante la vista de otros seres humanos” (Bauman, 1999, p. 113).
El concepto de “aldea global”, donde las nuevas tecnologías permiten
que las experiencias puedan ser originadas desde metrópolis muy diversas (Montaner, 1997, p. 117). Una cultura con raíces mestizas que para
algunos autores ha perdido su condición de vanguardia, ya que estas
“…han perdido la intención programática y defienden una postura de
búsqueda empírica y estrictamente individual” (Montaner, 1997, p. 118).
Espacios flexibles, limitados, espacios donde el individuo común es trans-
Fig. 14. Zaha Hadid y Karl Lagerfeld.
Los arquitectos del siglo XXI, transformados en rock stars, personifican el
glamour y la fama mundial, reciben
títulos nobiliarios, son fotografiados
frente a presidentes e incluso tienen
su propio club de fans.
formado en un pixel visto a través de una cámara de seguridad. Los no
lugares de Koolhaas se han transformado en los “lugares pixel” del siglo
XXI; lugares vigilados, controlados, inspeccionados. Una representación en
imágenes de la ciudad contemporánea a través de múltiples pantallas: “En
cada descansillo, frente a la puerta del ascensor, el cartelón del enorme
rostro miraba desde el muro. Era uno de esos dibujos realizados de tal
manera que los ojos le siguen a uno adondequiera que esté. ‘EL GRAN
HERMANO TE VIGILA’, decían las palabras al pie (...)” (Orwell, 1999).
Pero el gran hermano también ha mutado, ha delegado su tarea a una
creciente fila de Grandes Hermanos y Grandes Hermanas que observan
y son observados ávidamente: el acceso a la información se ha transformado en el tesoro más celosamente custodiado de los últimos tiempos
(Bauman, 1999, p. 35-165).
112
Figuras
Fig. 1. http://www.abc.es/internacional/20140822/abci-mcdonalds-rusiahistoria-201408211737.html
Fig. 2. http://cnnespanol.cnn.com/2016/01/19/invasion-a-iraq-25-anos-de-latransmision-en-vivo-de-la-guerra-del-golfo-persico/
Fig. 3. http://www.lostiempos.com/tendencias/viral/20160509/video-viral-torresgemelas-15-anos-despues-del-atentado
Fig. 4. Zygmunt Bauman, Modernidad líquida.
Fig. 5. Sistema Sage. http://www.computerhistory.org/collections/
catalog/102622740
Fig. 6. Antoine Geiger y Max Cavallari. http://www.abc.es/recreo/abci-cincofotografias-alertan-sobre-nuestra-adiccion-telefonos-moviles-201511171055_
noticia.html
Fig. 7. Demolition Man. http://missemmamm.com/2016/02/03/demolitionman/
Fig. 8. Fundawear. http://indiatoday.intoday.in/story/fundawear-long-distancerelationship-smartphones/1/280110.html
Fig. 9. William Gibson, Neuromante.
Marcelo A. Fraile - Arquitectura biodigital
Fig. 10 y Fig. 11. Pabellón Ruso de la XIII Bienal de Arquitectura de Venecia del
2012. http://www.metalocus.es/es/noticias/i-citii-land-pabell%C3%B3n-de-rusiaen-venecia
Fig. 12. Marcos Novak. Turbulent Topologies. http://www.artelabonline.com/
articoli/view_article.php?id=2848
Fig. 13. Norman Foster en el Estadio Wembley. http://www.
manchestereveningnews.co.uk/news/greater-manchester-news/wembleyarchitect-sir-norman-foster-691068
Fig. 14. Zaha Hadid y Karl Lagerfeld. http://artobserved.com/2008/07/zahahadids-chanel-mobile-art-space-coming-to-central-park-october-20th-tonovember-9th/
113
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 2. LAS NUEVAS HERRAMIENTAS DIGITALES DE REPRESENTACIÓN
“…La arquitectura es el juego sabio, correcto y magnífico de los volúmenes reunidos bajo la luz. Nuestros ojos
están hechos para ver las formas bajo la luz: las sombras y los claros revelan las formas. Los cubos, los conos,
las esferas, los cilindros o las pirámides son las grandes formas primarias que la luz revela bien: la imagen de
ellas es clara y tangible, sin ambigüedad. Por esta razón son formas bellas, las más bellas”. (Corbusier, 1964).
Desde tiempos inmemoriales el hombre ha necesitado de sistemas “metafóricos” para poder expresar sus
ideas: desde el dibujo bidimensional a la maqueta tridimensional, una serie de instrumentos permitían al individuo describir y representar la naturaleza dinámica de la realidad.
Las primeras imágenes nacieron en la prehistoria, hace aproximadamente 15.000 años, durante el Paleolítico,
cuando el hombre comenzó a dibujar elementales manifestaciones artísticas en las paredes de sus cuevas.
Utilizando pigmentos de origen natural, estos individuos primitivos dejaron registros tangibles de su vida: imágenes de personas y animales a base de carbón, sangre, tierra y polvo.
Con el tiempo, los dibujos fueron perfeccionándose, los artistas desarrollaron diversos métodos para ayudarse a representar del modo más fidedigno todo lo que veían a su alrededor. Para los arqueólogos, el dibujo
geométrico tuvo su origen en la civilización caldea y egipcia: desde las divisiones de la tierra y sus canales de
riego, hasta los murales de las tumbas de los faraones. Posteriormente, durante la civilización griega, el dibujo
adquiriría un proceso de rigurosidad a través del desarrollo del algebra y de la geometría, donde las figuras
geométricas no solo podían ser representadas, sino también calculadas.
A pesar de esto, el gran avance en la representación tridimensional del espacio se produciría durante el siglo
V, con el descubrimiento de la perspectiva. Teóricos como Brunelleschi (1377-1446) y Alberti (1404-1472) se
encargarían de codificar en forma sistemática las experiencias anteriores.
En este sentido, no solo supuso una nueva manera de representar el mundo sino, lo que es más importante,
significó la matematización del espacio y, con ello, una nueva forma de pensar (Bonet Saumench, Moret Chesa, & Solanellasbertran, 2009, p. 6). Fue el punto de inflexión donde se superó el sistema figurativo medieval
que asociaba el espacio con un ámbito sagrado.
La perspectiva se había transformado en una herramienta fundamental para la proyectación, representación
y, eventualmente, la modificación del espacio arquitectónico. Una construcción científica del sitio que se consigue controlando con exactitud la apariencia de los objetos en el espacio. Un proceso aditivo de complejidad 115
variable donde cada línea, cada trazo se va sumando al anterior a través de un código basado en normas y
convenciones que el diseñador establece a priori (Tedeschi, 2014, pp. 15-30).
Finalmente, el impulso decisivo se daría durante el siglo XVIII, con la publicación del tratado Géométrie descriptive (1798), del matemático francés Gaspard Monge (1746-1818) en donde se establecían las leyes de la
proyectación y representación de elementos geométricos en dos y tres dimensiones.
A partir de Monge, fue posible distinguir la obra de arte de la ciencia del dibujo, separándose lo técnico de
lo artístico mediante los nuevos sistemas de representación –proyecciones de plantas, cortes y azadas– que
adquirieron rigor con el uso de la geometría descriptiva.
En el campo específico de la disciplina, el dibujo convencional se constituyó en un instrumento para representar el mundo. Un sistema de símbolos capaces de poder expresar los pensamientos del diseñador, trasmitirlos
y posteriormente materializarlos. En este sentido, se trata de un trabajo de traducción entre la “idea tridimensional” en la mente y su “representación” física en el papel. Un modelo complejo donde cada acto creativo se
traduce en un alfabeto geométrico, un vínculo directo entre idea y signo (Tedeschi, 2014, pp. 15-30).
Parte III. El punto de inflexión
El dibujo convencional en la arquitectura posibilitó organizar ideas, espacios y formas; en esencia representó
la facultad de predecir el resultado de los diseños (Tedeschi, 2014, pp. 15-30). Y pese a lo limitado de su configuración, el dibujo viabilizó a los arquitectos a desarrollar sus doctrinas y poder construirlas, al transformarse
en un medio de comunicación eficaz para explorar alternativas, y soluciones.
Para el arquitecto italiano Arturo Tedeschi (1979), la lógica aditiva del dibujo tradicional presenta dos elementos contrastantes. En primer lugar, el acto de dibujar difiere de los mecanismos cognitivos que subyacen en
el proceso creativo, y que funcionan mediante el establecimiento de interrelaciones en lugar de añadidos
posteriores; y, en segundo lugar, el proceso de dibujo excluye aquellos aspectos físicamente relevantes que
en el mundo impulsan el desarrollo de formas, como por ejemplo: la gravedad y las restricciones que afectan
y restringen las deformaciones y los desplazamientos (Tedeschi, 2014, pp. 15-30).
Con la aparición de las primeras computadoras, durante la década de 1980, y su implementación masiva una
década después, nos hemos introducido en un vertiginoso proceso de digitalización de la arquitectura: el campo de la representación gráfica se ha transformado en un área de permanente evolución, lo que posibilita la
experimentación con la forma, “…de una manera tan aparentemente sencilla e intuitiva, [que] han despertado
en los arquitectos un afán por redescubrir la plasticidad del espacio” (García Núñez, 2016, p. 22).
Una nueva generación de imágenes digitales se está abriendo camino en la arquitectura: desde simulaciones
hiperrealistas, hasta presentaciones complejas, abstractas y no figurativas. Nuevas imágenes, tan densamente estratificadas y oscuras como cualquier deconstructivista o tan meticulosas como una sección/perspectiva
de las Beaux Arts (Rivera Ojeda & Guerra, 1999, p. 15). Una nueva tecnología se hace portadora de un realismo sin precedente y genera una nueva revolución en el modo de hacer y representar la arquitectura.
La conquista de la curva
De acuerdo con el Diccionario de la Real Academia Española, la palabra curva deriva del latín ‘curvus’, en
alusión a una línea, real o imaginaria, la cual se aparta de la dirección recta sin formar ángulos, y que presenta
una variación en su dirección que es paulatina y constante (RAE, Asale, 2014).
El uso práctico de la curva puede rastrearse hasta los primeros años de la cultura clásica. Utilizada para la
construcción de los cascos de los barcos, los romanos, disponían de una serie de plantillas de madera de
grandes dimensiones y de distintas curvaturas, que utilizaban para generar las costillas de los barcos: un
modo efectivo que evitaba la dificultad de tener que diseñar continuamente las curvaturas de las tablas para
116
los navíos.
La curvatura de cada nervio se trazaba a partir de una plantilla maestra reconfigurable. Una serie de marcas
graduadas sobre la plantilla indicaban dónde debía colocarse cada pieza móvil para cada costilla. De este
modo, el trabajo era sistematizado, ya que permitía utilizar varias veces una misma plantilla.
Con el tiempo, este sistema fue perfeccionado por los venecianos entre los siglos XIII y XVI, popularizado por los
ingleses durante el 1600, y posteriormente en los escritos del arquitecto naval alemán Horst Nowacki (1933)1
quien describió la geometría necesaria para construir las vigas de madera que serían utilizadas para curvar la
tablazón del barco (Farin, 2002, pp. 1-21).
La herramienta más común para el trazado de estas curvas era mediante un conjunto de plantillas conocidas
como curvas francesas: un instrumento cuidadosamente diseñado, que permitía el trazado de curvas complejas sin la necesidad de calcularlas. Una herramienta de precisión que se utilizaba para dibujar curvas de
diferentes radios a través de la unión de varios puntos predeterminados que generaban una línea suave, sin
cambios bruscos en su curvatura.
1. H. Nowacki. Splines in shipbuilding. Proc. 21st Duisburg colloquium on marine technology, May 2000.
Marcelo A. Fraile - Arquitectura biodigital
Ahora, si lo que se deseaba era trazar curvas en escala 1:1, las splines
eras las herramientas adecuadas para ello.
Las splines consistían en unas delgadas y flexibles tiras de madera o
acero, que se curvaban y adaptaban a la forma deseada mediante una
serie de pesas de metal, conocidas como patos (del inglés ducks). Estos
desarrollos eran realizados a mano y luego relevados, finalmente se obtenían las plantillas de la curva deseada. Cuando era necesario realizar
dibujos de grandes dimensiones, se debía recurrir a las buhardillas de
los edificios (o lofts), espacios sin divisiones internas que permitían dibujar y almacenar las grandes plantillas (de ahí el origen de la palabra
lofting) (Townsend Alastair, 2014).
Una representación físicamente óptima de las curvas a través de complicadísimos desarrollos geométricos: las formas eran el resultado de una
serie de aproximaciones “…a partir de tangentes de arcos circulares y
segmentos en línea recta que se trasladaban del plano a la construcción” (Dunn & Casasnovas, 2012, p. 40).
Fig. 1. Este sistema fue perfeccionado
por los venecianos entre los siglos XIII
y XVI, popularizado por los ingleses durante el 1600, y posteriormente en los
escritos del arquitecto naval alemán
Horst Nowacki (Farin, 2002, pp. 1-21).
Con la evolución de las técnicas de representación, los constructores
navales comenzaron a utilizar mejores herramientas para el dibujo y la
documentación de las embarcaciones. Sin embargo, en lo referente a
curvas de gran escala, se continuó empleando las técnicas tradicionales
de lofting y spline.
Estas técnicas pasarían a la industria aeronáutica para la construcción
eficiente de las curvas de las alas y los fuselajes de los aviones. Para
ello, inicialmente era necesario subdividir la línea en formas repetitivas.
Un proceso laborioso que no difería en gran medida del uso de las curvas francesas y que requería el almacenaje y la conservación de las
plantillas obtenidas.
En 1944, Roy Liming, un ingeniero aeroespacial de la compañía de Aviación NAA (North American Aviation) –famosa por haber construido los
célebres aviones de combate Mustang–, publicó un libro titulado Practical Analytical Geometry with Application to Aircraft2, en donde desarrollaba toda una serie de algoritmos útiles para la construcción de curvas
complejas (Townsend Alastair, 2014).
Para Liming, era mucho más eficiente conservar los diseños en forma de
datos numéricos que almacenar físicamente las plantillas con las curvas
trazadas a partir de los cuales se fabricaban los aviones: los números
almacenados en tablas no presentan ambigüedades ni errores en su interpretación, en tanto que las curvas podían dañarse, alterarse o incluso
extraviarse (Farin, 2002, pp. 1-21).
A mediados de la década de 1950, Liming comenzó a trabajar para la
compañía aeronáutica Boing, donde empezó a utilizar curvas y superficies cónicas para el diseño de los fuselajes de sus aviones. Poco después, J. C. Ferguson y D. H. MacLaren, de la misma compañía, a partir
2. Liming, R. (1944) Practical Analytical Geometry with Applications to Aircraft.
Macmillan.
117
Parte III. El punto de inflexión
de las curvas de Liming, desarrollarían un nuevo tipo de curva para el
diseño de las alas de los aviones: uniendo varias curvas cónicas, obtuvieron una curva compuesta diferenciable que permitía interpolar fácilmente un conjunto de puntos dados (Pedraza Gómara, 2009, p. 45).
Bautizadas como splines, esta curva “…resultaba de minimizar una función similar a las ecuaciones físicas relacionadas con los splines mecánicos” (Pedraza Gómara, 2009, p. 45).
Fig. 2. Las splines consistían en unas
delgadas y flexibles tiras de madera o
acero, que se curvaban y adaptaban a
la forma deseada mediante una serie
de pesas de metal, conocidas como
patos (del inglés ducks).
Con el avance de la tecnología digital, el significado del término spline ha sufrido un cambio sutil: en lugar de referirse a curvas que minimizan ciertas funciones, actualmente son consideradas como curvas
constituidas por tramos poligonales o relaciones poligonales, lo que da
como resultado trazos suaves y formas redondeadas (Pedraza Gómara, 2009, p. 45).
La llegada de las máquinas de control numérico
Con la introducción de las primeras computadoras analógicas y de las
primeras máquinas de control numérico (NC) en la industria automovilística durante la década de 1950, se hizo necesario una nueva gama de
herramientas de representación: nuevos instrumentos que suplieran los
antiguos modelos físicos, y que posibilitaran, de una forma matemática
y precisa, desarrollar las complejas superficies continuas que se utilizaban para la carrocería de los autos.
El problema se intensificaría cuando las computadoras analógicas fueron reemplazadas por las primeras computadoras de estado sólido: se
Fig. 3. Una representación físicamente
óptima de las curvas a través de complicadísimos desarrollos geométricos:
las formas eran el resultado de una
serie de aproximaciones. (Townsend
118 Alastair, 2014).
requería de un método que permitiera cargar las curvas a través del
sistema de tarjetas perforadas, que se utilizaba como mecanismo para
programar en las computadoras la trayectoria de la herramienta.
Para subsanar este inconveniente, el MIT desarrollaría un lenguaje de programación denominado Automatic Programmed Tool (APT. Herramienta
de programa automático): un lenguaje a partir de los planos donde el programador generaba manualmente las instrucciones que posteriormente
se introducían en las Computer-Aided Manufacturing (CAM, máquina de
control numérico), y permitían la comunicación entre hombre y máquina.
Sin embargo, el problema no había sido resuelto completamente. Dada
las características de la información, esta era almacenada en tarjetas de
papel, lo que ocasionaba algunos problemas a la hora de comunicar la
información a la computadora que manejaba la máquina herramienta. Mediante este sistema, el programador solo extraía los puntos significativos y
ajustaba la forma utilizando técnicas de interpolación como la de Lagrange, lo que producía que los resultados fueran deficientes para los nuevos
procesos de fabricación industrial (Pedraza Gómara, 2009, p. 43).
Se requería de un nuevo sistema que pudiera definir de forma precisa
las curvas de las superficies complejas, a fin de ser posteriormente fabricadas mediante los sistemas de control numérico CAM. Esto daría
Marcelo A. Fraile - Arquitectura biodigital
lugar al desarrollo de una nueva generación de herramientas digitales
de representación: los sistemas CAD, una nueva herramienta capaz
de dibujar las complejas geometrías de un modo eficiente y en un
menor tiempo.
Paul de Faget de Casteljau
En 1959, la compañía automotriz francesa Citroën contrató al joven ma-
Fig. 4. Curva de Casteljau. En lugar
temático Paul de Faget de Casteljau (1930) para desarrollar un sistema capaz de transformar la información planimétrica en un sistema de
ecuaciones matemáticas: un sistema que posibilitaría que las formas
de definir una curva a partir de los
pudieran ser almacenadas, transmitidas y utilizadas por las computadoras que dirigían las maquinas encargadas de la fabricación.
De Casteljau, partiendo de cero, comenzó a desarrollar un sistema cuyo
objetivo era el diseño de curvas y superficies, en lugar de centrarse en
la reproducción de planos existentes.
puntos contenidos en esta, “… el polígono de control que da origen a la
curva utiliza puntos que están cerca
de ella” . Es decir, “En vez de cambiar
la curva en sí, se modifica el polígono
de control de manera que se pued[a]
cambiar la apariencia de la curva de
manera muy intuitiva” (Pedraza Gómara, 2009, p. 43).
A partir de la utilización del polinomio de Bernstein para definir curvas
y superficies, desarrolló en 1963 lo que hoy se conoce como algoritmo
de De Casteljau3. Un instrumento utilizado para el trazado, evaluación y
desarrollo de curvas paramétricas (Townsend Alastair, 2014).
En lugar de definir una curva a partir de los puntos contenidos en esta,
“… el polígono de control que da origen a la curva utiliza puntos que están cerca de ella” . Es decir, “En vez de cambiar la curva en sí, se modifica el polígono de control de manera que se pued[a] cambiar la apariencia de la curva de manera muy intuitiva” (Pedraza Gómara, 2009, p. 43).
Pese al fuerte rechazo recibido inicialmente, de Casteljau pudo convencer a la compañía Citroën de su importante descubrimiento, el cual
permaneció en un absoluto secreto hasta que, en 1975, W. Boehm obtuvo copias de los trabajos y reconoció su labor al acuñar el término
“algoritmo de De Casteljau”.
Pierre Bézier
En forma paralela a los trabajos de De Casteljau, la firma automotriz
Renault encargó al ingeniero Pierre Bézier (1910-1999), director del departamento de diseño, la tarea de transformar las curvas de los modelos en un lenguaje matemático fiable, compatible con las primeras
computadoras digitales.
Bézier abordó el problema, desarrolló una serie de formulaciones polinómicas en sus diseños, y obtuvo resultados similares a los de De
Casteljau, solo variando en las matemáticas utilizadas: la idea inicial de
Bézier consistía en desarrollar un método de descripción matemática que
pudiera representar una curva como la intersección entre dos cilindros
elípticos definidos en el interior de un paralelepípedo; de este modo, las
“…transformaciones afines de este paralelepípedo resultaban en corres3. de Casteljau, P. (1963). Courbes et surfaces _a’ poles. Paris: Technical report,
A. Citroën.
119
Parte III. El punto de inflexión
pondientes transformaciones afines de la curva que generaban” (Pedraza
Gómara, 2009, p. 43).
En las curvas Bézier, la característica principal es que los diferentes puntos
que se introducen para definirlas se transforman en puntos obligatorios de
paso de la curva. Es decir que con cada nuevo punto incorporado a la curva, esta cambiará su trayectoria al incorporar a este en el nuevo trazado.
Fig. 5. Curva de Bezier. Los principales puntos de una curva Bezier son
los denominados “puntos del control”
(Control Points), y corresponden con
cada uno de los puntos de paso de
Los principales puntos de una curva Bezier son los denominados “puntos de control” (Control Points), y corresponden con cada uno de los
puntos de paso de la curva, los cuales llevan asociados dos puntos
dispuestos sobre una recta tangencial a la curva denominada “manija”
dos puntos dispuestos sobre una rec-
(Handles). Estas líneas tangentes son solidarias con la curvatura de la
línea. De este modo, al “tirar” de los extremos de la tangente en un punto,
ta tangencial a la curva denominada
genera una modificación de la curvatura.
la curva, los cuales llevan asociados
“manija” (Handles). Estas líneas tangentes son solidarias con la curvatura de la línea. De este modo, al “tirar”
de los extremos de la tangente en un
punto, genera una modificación de la
curvatura.
Estas líneas tangentes presentan una particularidad adicional: la longitud
del segmento de su tangente se asocia con la fuerza de atracción hacia
la curva, que se traduce en la suavidad de la curva (o steepness). Cuanto
más larga sea, mayor será esta fuerza de atracción y las curvas se acercarán más rápidamente a la tangente en los puntos de mayor peso.
En este sentido, el trabajo con curvas Béizer puede resultar bastante
complicado, ya que para cada punto es necesario controlar tres aspectos básicos: en primer lugar, la posición en el espacio que tiene el vértice
o nodo; en segundo lugar, la orientación que tiene cada tangente Bézier;
y finalmente, en tercer lugar, la longitud de cada tangente.
Sin embargo, la combinación de curvas Bézier posibilita la generación
y desarrollo de complejas superficies, aptas para el tratamiento de las
carrocerías de los autos y el fuselaje de los aviones.
120
A diferencia de De Casteljau, Renault autorizó a Bézier a que diera a
conocer sus hallazgos, los cuales aparecieron publicados en 1962. Con
el tiempo, tanto el método de De Casteljau, como el de Bézier fueron
reconocidos matemáticamente, y ambos descubridores fueron ampliamente acreditados por sus resultados.
Los trabajos de Bézier llamaron la atención de A. R. Forrest, quien
los utilizó para escribir un artículo titulado “Interactive interpolation
and approximation by Bézier polynomials”4, en donde expresa
que las curvas de Bézier podían ser expresadas en términos de
los polinomios de Bernstein, como lo había hecho Casteljau. Este
artículo contribuyó a la popularización de la utilización de estas
curvas (Townsend Alastair, 2014).
A partir de los estudios de Bézier, la compañía Renault desarrolló entre
1968 y 1971 el sistema UNISURF: un sistema CAD/CAM pionero en la
industria automotriz y que era capaz de construir curvas y superficies
Bézier, con el objetivo de reducir el retraso y los costos de producción
de la carrocería de los autos.
4. Forrest, A. (1972) Interactive interpolation and approximation by Bézier polynomials. Computer Journal, 15:71–79.
Marcelo A. Fraile - Arquitectura biodigital
UNISURF trabajaba directamente sobre la geometría de las formas, en
lugar de sus cálculos, lo que posibilitaba la rápida generación de las
curvas en el espacio y el paso de la maqueta a los planos finales del
modelo sin alteraciones intermedias. Este sistema entró completamente
en operaciones en 1975 y se mantuvo en uso hasta 1985.
El sistema UNISURF tuvo una fuerte influencia en la compañía aeronáutica francesa Dassault y en el desarrollo de su sistema EVE: un programa que, con el tiempo, evolucionaría hasta convertirse en el sistema CATIA (Computer Aided Three-dimensional Interactive Application). Este
sistema fue utilizado por el arquitecto norteamericano Frank Gehry para
diseñar obras como el Museo Guggenheim de Bilbao, o el Pez Dorado
del Puerto Olímpico de Barcelona.
Las B-Spline
En 1959, la compañía americana General Motor había adquirido una serie
de fresadoras de control numérico pero carecía de un lenguaje matemático adecuado para el ingreso de datos dentro de las máquinas, que generaban las complejas partes de sus vehículos, en especial de las aletas
traseras del Buick Electra. Esto obligaba a que las partes fueran divididas
mediante un sistema tedioso e impreciso que ocasionaba continuas pérdidas de tiempo y errores frecuentes (Townsend Alastair, 2014).
Un año después, el matemático estadounidense Carl de Boor (1937)
comenzó a trabajar para los laboratorios de la compañía General Motors
con el objeto de encontrar una solución a ese problema.
Boor, junto con L. Mansfield y M. Cox, idearon un recursivo método para
evaluarlas, utilizando para ello B-splines (abreviatura de Basic Spline).
El término B-spline o línea polinómica suave básica corresponde con una
función matemática concebida en 19465 por el matemático americano
Isaac Jacob Schoenberg (1903-1990), un potente y flexible método de
cálculo para el trazado de nodos uniformes6. Un año después, en 1947,
el matemático y lógico estadounidense Haskell Brooks Curry (1900-1982)
generalizó estos conceptos al estudiar los nodos no uniformes7.
A partir del algoritmo de Boor, la empresa IBM desarrollaría para la General Motors un nuevo sistema CAD/CAM que culminaría con la creación
del DAC-1 (Design Augmented by Computer), lo que para muchos es el
primer sistema de CAD. Un avanzado programa de diseño que utilizaba
las técnicas de curvas y superficies desarrolladas por Boor y W. Gordon.
El DAC-1 permitía introducir las complejas variables geométricas de un
automóvil y a continuación, ver el modelo tridimensional desde diferentes ángulos.
5. Aunque su desarrollo matemático se remonta al siglo XIX.
6. Schoenberg, I. (1946) Contributions to the problem of approximation of equidistant data by analytic functions. Quart. Appl. Math., 4:45{99)..
7. Ver Haskell P. Curry papers, 1911-1984 en: https://libraries.psu.edu/findingaids/222.htm
121
Fig. 6. El término B-spline o línea polinómica suave básica corresponde con
una función matemática concebida en
1946 por el matemático americano
Isaac Jacob Schoenberg, un método
de cálculo para el trazado de nodos
uniformes.
Parte III. El punto de inflexión
En marzo de 1974, los estadounidenses Robert Barnhill y Richard Riesenfeld realizaron, en la Universidad
de Utah, la Primera Conferencia Internacional sobre Diseño Geométrico Asistido por Computadora, de la que
participaron investigadores de Europa y los Estados Unidos.
En dicha conferencia, acuñaron el término CAGD (Computer Aided Geometric Design - Diseño Geométrico
Asistido por Computador)8.
Uno de los presentadores de la conferencia de Utah fue el artista gráfico George Chaikin, quien enseñó un
nuevo procedimiento para la generación de curvas a partir de un número limitado de puntos.
El algoritmo de Chaikin es un procedimiento que, a partir de un polígono bidimensional cerrado y utilizando
un proceso continuo de corte o de “refinamiento de las esquinas”, permite obtener curvas suaves: B-spline
cuadráticas uniformes.
Tiempo después, en 1987, Boor había descubierto que los algoritmos de Chaikin también eran capaces de
producir curvas continuas.
Uno de los primeros modelos surgidos en el ámbito de CAGD fue la famosa “tetera de Utah”. En 1975, el matemático irlandés Martin Newell (1910-1985) ideó un modelo con formas tridimensionales complejas: un modelo
definido matemáticamente que se ajustaba a su par en el mundo real. Para muchos, la tetera de Utah es considerada como el sexto sólido platónico con el nombre de “Teapotahedron”.
El camino hacia las NURBS
El estudiante de doctorado Steven A. Coons (1912-1979), de la Universidad de Syracuse, había ampliado el
modelo B-spline para ser racional y no uniforme: conocido como Coon’s Patch (el parche de Coons), una forma de geometría de superficie para ser utilizada en el diseño asistido por computadora.
Con el tiempo, Ken Versprille ingresó a la Universidad de Syracuse, New York, como alumno de doctorado y se
transformó en discípulo de Coons.
Pronto se unieron al pequeño grupo selecto, William Gordon, del Laboratorio de Investigación de la General
Motors; Robin Forrest, del Laboratorio de Computación de la Universidad de Cambridge; y Rich Riesenfeld, del
doctorado de la Universidad de Utah. Este último se asoció con Gordon para el desarrollo de las B-Splines,
una generalización del método de Bézier.
122
En 1975, Versprille publicaría la disertación de su tesis doctoral sobre las primeras descripciones de las
“Non-uniform Rational B-Splines”, una ampliación de las B-Splines ecuaciones racionales no uniformes.
Casi al mismo tiempo, tres equipos comenzaban a investigar sobre las Non-uniform Rational B-Splines. Estos
eran: la compañía aeroespacial Boing, Structural Dynamics Research Corporation, y la Universidad de Utah.
a. Compañía aeroespacial Boing. Para mediados de la década de 1950, la compañía aeroespacial estadounidense Boing ya contaba con su propio software de diseño para la elaboración de fuselajes. Sin embargo, este
sistema presentaba serios problemas de incompatibilidad entre las diferentes secciones de la compañía, lo que
hacía que las tareas fueran engorrosas y complejas, con la consiguiente pérdida de tiempo que esto ocasionaba.
Buscando una salida a estos inconvenientes, en 1979, la oficina de desarrollo de software de Boing Computer
Services (Boing Servicios informáticos), bajo la supervisión de Richard Smith, había comenzado a elaborar
su propio sistema CAD/CAM denominado TIGER9.
8. El primer libro relacionado con el tema, recién apareció en 1979 (Faux I. D. and Pratt M. J. (1979) Computational Geometry for Design and Manufacture. New York: Halsted Press, y la revista Computer Aided Geometric Design fue fundada en
1984. http://luispedraza.es/wp-content/uploads/2015/10/tesisluispedraza-slamgeomc3a9trico.pdf
9. El equipo se completaba con Robert Blomgren, Richard Fuhr, George Graf, Peter Kochevar, Eugene Lee, Miriam Lucian
y Richard Rice.
Marcelo A. Fraile - Arquitectura biodigital
Como paso previo, un grupo de matemáticos había seleccionado la representación estándar de once formas
de curvas: desde líneas y círculos hasta curvas de Bézier y B-splines.
En el proceso de investigación de estas curvas, uno de los matemáticos del equipo, Eugene Lee, había descubierto que la tarea principal –la localización de los puntos de intersección de dos curvas arbitrarias–, podía
ser reducida a resolver un problema de localización del punto de intersección de las curvas de Bézier, ya que
cualquier curva suave dentro de una determinada zona se puede aproximar con una curva de Bézier. Su trabajo quedó reflejado en un memorándum interno de la empresa fechado en el mes de febrero de 1981, titulado
“Treatment of Conics in Parametric Rational Bezier Form”10.
A partir de este descubrimiento, el equipo pronto reconoció la necesidad de representar una única curva que
lo abarcara todo, en lugar de un juego de 11 curvas independientes. Finalmente, los matemáticos encontraron
la manera de combinar las curvas de Bézier racionales y las B-splines no uniformes.
Algunos investigadores sugieren que, siendo por aquel entonces profesor del doctorado de la Universidad de
Utah, Rich Riesenfeld pudo haber enseñado las teorías de Versprille a uno de sus estudiantes que trabajaba
para la empresa Boing. Lo concreto es que, para finales de 1980, Boing contaba con un modo de representar
todas las curvas a través de una sola escritura conocida como NURBS11.
Con el tiempo y luego de no pocas dificultades, estos conceptos se integrarían en el sistema TIGER con el fin
de unificar todos los tipos de curvas en una única representación. Para agosto de 1981, Boing propuso incluir
las curvas NURBS en las “Normas Internacionales de Intercambio de Gráficos” IGES (International Graphics
Exchange Standard).
Curiosamente, a pesar del éxito de NURBS y la gran cantidad de trabajos realizados para su desarrollo, para
1984 Boeing abandonaría definitivamente el sistema TIGER.
b. Structural Dynamics Research Corporation (SDCR). En 1967, un grupo de docentes e investigadores del
Departamento de Ingeniería Mecánica de la Universidad de Cincinnati, entre los que figuraban Jason Lemon,
Albert Peter, Robert Farell, y Jim Sherlock, crearían el SDRC (Structural Dynamics Research Corporation):
una compañía consultora de ingeniería que, con el tiempo, se transformaría en una de las principales empresas desarrolladoras de software de diseño mecánico.
En 1977, como parte de un proceso de expansión, la compañía invirtió en el futuro e inició la comercialización
de SUPERTAB: un sistema que podía ser utilizado en diversos soportes.
Un año después, la compañía había comenzado a desarrollar GEOMOD, un modelador que utilizaba las curvas NURBS como una forma de representación. Con el tiempo, y basándose en la tecnología de GEOMOD,
SDRC desarrollaría I-DEAS (Integrated Design and Engineering Analysis Software. Software de análisis integrado de diseño e ingeniería): un programa flexible dirigido a la industria automotriz que permitía elaborar
desde programación hasta modelado de sólidos o el análisis de elementos finitos.
Un hecho poco conocido es que SDRC vendió una versión de I-DEAS para fusionar con los sistemas informáticos IBM: el CAEDS (Computer Aided Engineering Design System. Sistema de diseño de ingeniería asistido
por computadora): un programa que funcionaba sobre plataformas IBM.
c. Universidad de Utah. En 1973, Rich Riesenfeld, Elaine Cohen y un equipo de investigación de la Universidad
de Utah desarrollarían un modelador llamado Alpha_1: un programa que podía representar sólidos de gran
capacidad, piezas mecánicas tales como aspas de turbinas, aviones, helicópteros, automóviles, etcétera.
10. Traducido como “Tratamiento de cónicas en forma paramétrica Rational Bezier”
11. Uno de los gerentes de Boing se había cansado de pronunciar “Non-uniform Rational B-Splines”, y acuñó el acrónimo
NURBS con que se la conoce.
123
Parte III. El punto de inflexión
Con el tiempo, comenzaron a experimentar con una tecnología que les
permitiera utilizar curvas NURBS para el desarrollo de sus representaciones.
Muchas fueron las compañías que siguieron su camino, una de estas
fue Intergraph Corporation, una compañía estadounidense para el desarrollo de software, fundada en 1969 por exingenieros de IBM. Para
1985, Intergraph comenzó a utilizar un nuevo sistema llamado l/EMS,
basado enteramente en curvas NURBS. Ese mismo año, la compañía
australiana Formation Design Systems creó el software Macsurf12, un
software de modelado interactivo mediante geometrías NURBS para
PC, una herramienta de alta precisión para el diseño y el análisis de
buques y navíos.
Las NURBS
Las NURBS, acrónimo ingles de la expresión Non Uniform Rational Basic Spline (B-splines racionales no uniformes) son modelos matemáticos de geometría utilizados para generar y representar con precisión
todo tipo de formas: desde sencillas líneas o curvas, hasta superficies
y sólidos de las más variadas formas y complejidades (Joosen, s. f., p.
128).
Para el profesor Branko Kolarevic, las curvas NURBS son un equivalente
digital de los pistoletes flexibles (drafting splines) que eran utilizados
antiguamente para realizar las complejas curvas (2003, pp. 17-45).
Pese a seguir diferentes leyes matemáticas, tanto las “curvas de Bézier”,
124 Fig. 7. Las NURBS, acrónimo ingles
de la expresión Non Uniform Rational
Basic Spline (B-splines racionales no
como las curvas NURBS están definidas bajo los conceptos de unir dos
puntos denominados “puntos de anclaje”, “nodos” o “vértices”, mediante
una curva que se define a través de unos puntos invisibles denominados
“puntos de control”, “manejadores”, “manecillas” o “puntos tiradores”, a través de los cuales es posible forzar su curvatura para que esta sea mayor
o menor. Moviendo estos puntos en el espacio, es posible deformar o
alterar la conformación de la curva o superficie.
Cada punto de control se encuentra asociado a una ecuación polinó-
uniformes) son modelos matemáticos
mica “…conocida como una función base (la “B” en NURBS, y en las
de geometría utilizados para generar
B-splines en general). Una B-spline racional (la “R” en NURBS) se
y representar con precisión todo tipo
define matemáticamente como la relación de dos ecuaciones polinó-
de formas: desde sencillas líneas o
micas, es decir, dos funciones base. Cada función base afecta sólo
curvas, hasta superficies y sólidos de
a la sección de curva cercana al punto de control asociado, y estas
las más variadas formas y complejida-
secciones están delimitados por nodos. En una non-uniforme rational
des (Joosen, s. f., p. 128).
B-spline la influencia de un punto de control (la función de base asociada) en una curva se puede variar cambiando la ubicación de los
nodos a lo largo del segmento de control que une dos puntos de control; es decir, en una non-uniforme rational B-spline el espaciamiento
de los nodos es desigual” (Kolarevic, 2003, pp. 17-45).
Entre las principales ventajas de las curvas NURBS, se destaca su alto
grado de precisión y flexibilidad a la hora de operar con formas analíticas
12. Ahora Maxsurf Software es de la empresa Bentley.
Marcelo A. Fraile - Arquitectura biodigital
y complejas. Esto se debe a que los puntos de control no son de paso obligado de la curva, (excepto en el caso del primer y último punto), sino que
forman un polígono cuyos lados son tangentes a esta. Esto permite una
fácil manipulación, aunque requiere de un número mayor de nodos que en
el caso de las curvas Bézier, ya que al tener lo que se llama “continuidad
de curvatura”, al mover uno de los puntos, la variación de la curvatura afecta un área mayor: “Cada punto de control tiene un [parámetro de] peso
asociado, que determina el alcance de su influencia sobre la curva… El
aumento del peso de un determinado punto de control acerca la curva o
Fig. 8. las NURBS conforman similitu-
superficie correspondiente hacia ese punto de control y viceversa” (Kola-
en tanto que las T-Spline pueden tener
los T-puntos internos, es decir, tener 3
revic, 2003, pp. 17-45).
des topológicas de marco rectangular,
puntos de referencia en lugar de 4.
Las NURBS fueron rápidamente adoptadas por los diseñadores para el
desarrollo de complejas geometrías: formas definidas a partir de un conjunto de parámetros distintos que proporcionaban una gran flexibilidad
en el diseño, utilizando una cantidad mínima de pasos que podían ser
transferidos posteriormente a una máquina CNC para su construcción.
Las curvas T-Spline
Inventadas por Thomas Sederberg en 2003, las curvas T-splines parecen ser la nueva generación de curvas que reemplazaría las curvas
NURBS.
Una poderosa herramienta que mejora las propiedades de los diseños asistidos por ordenador. Su principal diferencia con respecto a las
NURBS radica en que las NURBS conforman similitudes topológicas de
marco rectangular, en tanto que las T-Spline pueden tener los T-puntos
internos, es decir, tener 3 puntos de referencia en lugar de 4; situación
que los hace muy útiles para el modelado de superficies orgánicas, al
reducir el número de puntos en comparación con las NURBS.
En 2004, Sederberg formó Inc con el objetivo de facilitar su aplicación
comercial. Desde el 2011 quedó en poder de la compañía Autodesk Inc.
y su desarrollo prometía un conjunto de herramientas 3D tan poderosas
que podrían fusionar la precisión y el control de NURBS con las interfaces intuitivas del modelado de superficie de subdivisión.
Tras la imagen digital
“En la televisión, en la cabina de mando de los aviones, las salas de
cine o los quirófanos, las agencias de arquitectura y los laboratorios
de física, no es posible ignorarlas; lo queramos o no, las imágenes
digitales están en el ambiente” . (Jullier, 2004, p. 7).
En la antigüedad, cuando los artesanos debían definir una figura sobre
la superficie de un elemento, utilizaban una grilla de módulos cuadrados:
cada casilla era la unidad base más pequeña de la imagen, cada celda
podía estar llena o vacía, podía tener o carecer de información (Jullier,
2004, p. 56).
125
Parte III. El punto de inflexión
Tiempo después, con la llegada de las tecnologías informáticas, este concepto fue recuperado y adoptado, y
se estableció una analogía entre los cuadrados bases que utilizaban los artistas y los puntos de información
que utilizaban los sistemas digitales. De este modo, para representar una imagen, una pantalla de computadora utiliza el principio de una grilla invisible, formada por una sucesión de pequeños cuadrados o “píxeles”.
De acuerdo a su definición, un pixel13 puede ser entendido como el punto o unidad lógica, no física, que representa una determinada cantidad de información sobre una pantalla (Montagu, Mariño, & Igarzabal De Nistal,
1993, p. 25). En esencia, son componentes abstractos fundamentales de un mosaico que puede ser dibujado
a cualquier escala para componer una imagen digital (Jullier, 2004, p. 56).
En los dispositivos gráficos, cada uno de los píxeles que conforma una imagen es codificado al asignársele una
determinada cantidad de información o bits. De un modo elemental, a través de un bit es posible manejar el color
de una pantalla, relacionando el 0 con un color y el 1 con otro; por ejemplo, 0 para el negro y 1 para el blanco.
Los primeros monitores de rayos catódicos utilizaban esta metodología para reproducir los gráficos en color
verde o ámbar sobre un fondo negro: se trataba de imágenes de baja resolución, imágenes facetadas (pixeladas), donde el dibujo no siempre podía verse bien.
Con la evolución y desarrollo de las primeras placas gráficas y el mejoramiento de las pantallas de los monitores, fue posible cambiar la resolución de las imágenes y dotar a los píxeles de una completa gama de
tonalidades hasta llegar a reproducir la realidad.
Para ello, cada uno de los píxeles es codificado individualmente. El color específico de cada píxel está formado
por la combinación de tres componentes14 del espectro de color: rojo, azul y verde (en los sistemas RGB, Red,
Green, Blue). Al encontrarse los puntos muy próximos entre sí, el cerebro humano no puede distinguirlos como
diferentes y los percibe como un único punto de color y, de este modo, se crea la ilusión necesaria para que sea
posible reproducir cualquier color del espectro visible, más sus matices.
Cada color equivale a 1 byte de información, cada byte equivale a 8 bit, y 8 bit equivalen a 256 matices de
color. De este modo, para producir una diversidad de colores como en una fotografía es preciso procesar 16
millones de colores, donde cada uno de los tres fotóforos de un píxel pueda iluminarse con 256 matices (Jullier, 2004, p. 15).
En una imagen digital, el soporte se ha desmaterializado, solo existe dentro de la pantalla de la computadora
y solo tendremos acceso a esta mediante una interfaz que puede ser un monitor, una impresora, etc. Su crea126 ción es desarrollada sobre la base de un algoritmo dentro de la computadora, un proceso matemático elegido
por el autor. Un conjunto de formas y colores trasladados a un código de números.
La representación digital
“Los diferentes sistemas de representación utilizados en Arquitectura generan, modifican y/o confirman formas
de lectura y de memoria en relación a los mecanismos de percepción y conocimiento…” . (Chiarella et al., 2011).
Actualmente nadie puede dudar del papel que desempeñan los sistemas digitales en el campo del diseño,
en especial las herramientas CAD15. Su uso en arquitectura es un fenómeno relativamente reciente: a finales
de la década de 1980 eran pocos los estudios que utilizaban computadoras, y los que lo hacían, se limitaban
13. Píxel: Acrónimo del inglés Picture Element, que significa “elemento de la imagen”. La palabra “píxel” fue publicada por
primera vez en 1965 por el ingeniero americano Frederic C. Billingsley (1921-2002), del Jet Propulsion Laboratory de la
NASA, para referirse a los elementos gráficos de las imágenes de video transmitidas por las sondas espaciales.
14. Estos componentes reciben el nombre de fotóforos, en el caso de un monitor de rayos catódicos, de acuerdo al principio de composición aditiva.
15. CAD es un acrónimo del inglés Computer Aided Design. Si bien inicialmente era posible encontrarlo con las siglas
CADD (Computer Aided Design and Drafting), con el tiempo se popularizó la denominación CAD, por ser más sencilla de
decir y de escribir.
Marcelo A. Fraile - Arquitectura biodigital
a tareas administrativas tales como el procesamiento de textos o la contabilidad. En general, el proceso de diseño continuaba siendo analógico,
a través de los métodos tradicionales como el dibujo a mano alzada o
maquetas (Dunn & Casasnovas, 2012, p. 14).
RGB
Sin embargo, todo iba a cambiar a mediados de la década de 1990
con la popularización de las computadoras personales y el desarrollo
de nuevas plataformas digitales más amigables con los usuarios; los
estudios de arquitectura comenzarían a adquirir computadoras y nuevas
herramientas informáticas.
Fig. 9. Cada color equivale a 1 byte
de información, cada byte equivale a
En este aspecto, uno de los primeros aportes de la tecnología digital en
8 bit, y 8 bit equivalen a 256 matices
el diseño, y que sin duda produciría una fuerte influencia en los procesos proyectuales, fue el uso de los sistemas gráficos como “medio de
representación” geométrica del espacio. A través del diseño asistido por
de color. De este modo, para producir una diversidad de colores como en
una fotografía es preciso procesar 16
computadora, fue posible generar y expresar nuevos proyectos que difí-
millones de colores, donde cada uno
cilmente hubieran podido realizarse utilizando los métodos tradicionales
de representación.
da iluminarse con 256 matices (Jullier,
Inicialmente, estos sistemas CAD eran básicamente herramientas que
buscaban simular el proceso de dibujo manual pero, conforme con los
cambios en la tecnología de hardware, una nueva generación de programas, cada vez más poderosos y accesibles, permitió la aparición de
una arquitectura de complejidad formal y precisión milimétrica. Un nuevo
modo de comunicar una idea de forma efectiva, alterando la concepción
tradicional de diseño de la misma manera que la perspectiva lo había
de los tres fotóforos de un píxel pue2004, p. 15).
256 x 256 x 256 = 16.777.213 colores
compuestos (Jullier, 2004, p. 15).
hecho durante el Renacimiento (Fernández-Galiano, 2009, p. 3).
Sistemas informáticos capaces de construir modelos digitales en dos o
tres dimensiones: una representación exacta y completa de la realidad,
con la capacidad de asociar a las entidades propiedades cualitativas
adicionales, tales como luz, color y textura. Por ejemplo, mediante estas
herramientas, era posible adicionar a la superficie del objeto modelizado
diferentes texturas de materiales, simular su comportamiento ante la luz
en diversas condiciones y predecir sus respuestas. De igual manera, las
operaciones de zoom y paneo permiten cambiar el punto de vista del
observador, lo que posibilita recorrer e incluso introducir al observador
en el interior del modelo para contemplarlo desde dentro.
Un cambio de paradigma que ha redefinido el uso de los dibujos bidimensionales reproducidos en el papel para mudar hacia modelos digitales tridimensionales producidos a través de reglas matemáticas, operaciones invisibles desarrolladas mediante algoritmo y que conducen
hacia un universo de resultados inimaginables.
Se trata de volúmenes complejos con características no cartesianas
“de capas y superficies” que Helio Piñon denomina efecto Guggenheim
(2005), recuperando lo que Rafael Moneo llamaba las “geometrías olvidadas” y que ahora, gracias a la tecnología digital, pueden ser manipuladas (Kolarevic, 2003, pp. 17-45).
127
Parte III. El punto de inflexión
Un nuevo modo de pensamiento hace su irrupción en la arquitectura
contemporánea: una arquitectura de vanguardia digital que se aparta
de la geometría cartesiana para intentar experimentar con una geometría topológica de superficies curvadas que utiliza NURBS (Non-Uniform
Rational B-Splines) y que proporciona un alejamiento de los volúmenes
discretos (Kolarevic, 2003, pp. 17-45); una seducción por formas irregulares y flexibles, con una fuerte inspiración en la naturaleza, producidas
matemáticamente “…con la misma facilidad que las formas planas, cilíndricas, esféricas y cónicas de la geometría euclidiana” (Kolarevic, 2003,
pp. 17-45). Hemos superado la representación tradicional para desarrollar, a través de herramientas digitales, una representación del espacio
bajo una mirada utópica de irrealidad.
Realidad virtual
“…proveyéndonos de un casco ocular (eyephon, calzándonos un
guante inteligente (data-glove) y vistiéndonos con un mono inteligente (data-suit) estamos en condiciones de entrar en una realidad
ilusoria y de vivirla como si fuese real (o casi real). Ahora estamos
en condiciones de explorar desde el interior una realidad que es la
contrafigura de la nuestra”. (Maldonado, 1994, pp. 58-59).
De acuerdo con el Diccionario de la Real Academia española, el concepto
de realidad virtual se refiere a “la representación de escenas o imágenes
de objetos producidos por un sistema informático que da la sensación de
su existencia real” (RAE, Asale, 2014). Una realidad ilusoria (de illudere: enFig. 10. El concepto de realidad virtual
(VR, Virtual Reality) fue acuñado en
1984 por el escritor estadounidense
Jaron Lanier (1960), con referencia
a una simulación tridimensional interactiva creada por una computadora,
donde el usuario podía moverse dentro de esta, utilizando aparatos y sen-
128 sores digitales para su percepción.
gañar), pues se trata de una realidad perceptiva en tiempo real, sin soporte
objetivo, ya que existe solo dentro del ordenador (Gubern, 1996, p. 156).
El concepto de realidad virtual (VR, Virtual Reality) fue acuñado en 1984
por el escritor estadounidense Jaron Lanier (1960), con referencia a una
simulación tridimensional interactiva creada por una computadora, donde el usuario podía moverse dentro de esta, utilizando aparatos y sensores digitales para su percepción.
En 1968, el pionero de la informática Ivan Sutherland (1938) construyó en el centro experimental de la Universidad de Utah el primer
casco de realidad virtual de la historia: este consistía en una placa
aceleradora de gráficos y dos pequeños tubos de rayos catódicos
montados cerca de los ojos, para simular la visión tridimensional.
Trece años después, ya existía en el laboratorio de investigación militar de la base aérea Weight Patterson un simulador de vuelo que
utilizaba la tecnología de realidad virtual.
En 1986, un grupo de investigadores del programa Virtual Environment Workstation de la NASA en combinación con el departamento de defensa de los EEUU desarrollarían el programa VIEW (Visual
Interface Environment Workstation): el primer prototipo capaz de
combinar la tecnología de un casco visor en 3D con un guante señalizador para el ingreso de datos a través de este. (Montagu, 2004,
pp. 133-134)
Marcelo A. Fraile - Arquitectura biodigital
En principio, la realidad virtual pone en crisis lo real. Para al profesor
francés Laurent Julier (1960), el término realidad virtual es un “oxímoron”
por referirse a dos conceptos contradictorios y autoexcluyentes, de allí
que algunos autores anglosajones prefieren denominarla como Realidad Artificial (RA, Artificial Reality).
Una representación donde la simulación del espacio va más allá de los
sentidos visuales y auditivos, abarcando inclusos los sentidos táctiles.
La tecnología digital vincula y hace irreconocible el paso de lo real a lo
virtual: “…una fuga del mundo real hacia lo virtual…una fuga ascendente liberadora, hacia lo absoluto” (Maldonado, 1994, p. 64).
Los nuevos sistemas digitales permiten a la gente crear una realidad
nueva: observar un modelo digital por medio de una visualización estereoscópica dinámica e interactiva. Pares de imágenes en movimiento
en escala armónica con el observador: “…una gradual pero ineludible
‘desmaterialización’ de nuestra realidad” (Maldonado, 1994, p. 12).
Realidad aumentada
En 1997, el investigador Ronald Azuma definía la realidad aumentada
como la interrelación en tiempo real de elementos reales y virtuales, registrada en 3D y con el agregado de información virtual a la información
física ya existente (Zátonyi, 2011, p. 315).
Los primeros indicios de realidad aumentada nacieron en la década de
1960 para uso militar. Fue diseñada para permitir a los pilotos mirar los
valores de los instrumentos, sin perder de vista los objetivos. Diez años
después, estas técnicas se extenderían a los vehículos comerciales
para, finalmente, pasar al campo de los videojuegos donde adquirió su
protagonismo definitivo.
En la realidad aumentada, los elementos del contexto coexisten con
los elementos virtuales, aportando información adicional a los primeros por medio de artefactos visuales colocados en el visor: cámaras y
sensores permiten percibir el mundo real e integrarlo a la construcción
digital, pudiendo interactuar de una forma natural, utilizando manos,
ojos y gestos.
Una realidad mixta que no busca sustituir la realidad, sino que sobreimprime los datos informáticos sobre el contexto (Zátonyi, 2011, p. 315): el
usuario sigue percibiendo la realidad a su alrededor en vez de reemplazar lo real por sus propias informaciones, la completa con nueva
información.
Bajo un proceso de layerización, en donde se superponen diferentes
percepciones mediante una conexión fluida entre máquina y usuario, se
construye un nuevo entorno interactivo diseñado por el mismo observador.
Fig. 11. Realidad aumentada. Una realidad mixta que no busca sustituir la
realidad, sino que sobreimprime los
datos informáticos sobre el contexto
(Zátonyi, 2011, p. 315).
129
Parte III. El punto de inflexión
Fig. 12. Para Dennis Dollens, la escultura del pez de Barcelona fue un
protoedificio, un experimento a gran
escala que a través de sus curvaturas, plegamientos y escamas, buscaba romper con la geometría tradicional (2002, p. 26).
130
Marcelo A. Fraile - Arquitectura biodigital
Del pez a la casa Lewis
En 1991, Massimo Colomban, uno de los jefes de Permasteelisa –compañía encargada de la construcción de la torre de acero de Bruce Graham Hotel Arts en la Villa Olímpica de Barcelona–, encargó a Frank O.
Gehry y a James Glymph la construcción de una escultura como parte
del proyecto que Permasteelisa estaba desarrollando en Barcelona.
Para su proyecto, Gehry había trabajado con modelos tridimensionales
de papel: una serie de ondas y superficies alabeadas que pronto se fueron convirtiendo en la escultura de un pez16 de 60 x 38 metros.
Si bien su equipo estaba acostumbrado a tomar las medidas de las maquetas con reglas y plomadas para sacar los puntos importantes y transformar
el modelo en planos convencionales, con el antecedente del Walt Disney
Concert Hall fue que se optó por continuar las investigaciones relacionadas
sobre el potencial que poseían las herramientas digitales como un camino
posible tanto en la producción, como en la visualización de la arquitectura.
El uso de la computadora y de los sistemas digitales entró en el estudio
de Gehry después de construir el Museo de Diseño Vitra, en 1989. El
Museo había tenido una serie de problemas para desarrollar una escalera caracol expresada en la fachada como una espiral hacia arriba.
Los resultados obtenidos mediante los sistemas tradicionales de dibujo,
a partir de geometría descriptiva, habían desilusionado profundamente
a Gehry. A partir de ello, un grupo de sus colaboradores comenzaron a
realizar una investigación de las nuevas tecnologías.
Inicialmente, la computadora no fue bien recibida y ocasionó continuos
cortocircuitos entre los deseos de Gehry y el resultado de los programas
empleados. En este sentido, cabe destacar que Gehry no es un arquitecto digital –él comenzó a utilizar las herramientas informáticas no como
herramientas de dibujo, sino como herramientas de proyectación y materialización, una nueva materialización que exigía una precisión solo conseguida, a través de una computadora– (Dollens & Planella, 2002, p. 23).
Los primeros dibujos comenzaron en AutoCAD, sin embargo, el programa presentaba graves inconvenientes a la hora de acotar y definir las
formas curvas diseñadas por Gehry. Por aquel entonces, no existía una
plataforma tecnológica lo suficientemente desarrollada como para ser
utilizada en arquitectura.
Poco tiempo después, Jim Glymph contrataría al arquitecto Rick Smith,
un especialista en el modelado 3D, para que se encargara del desarrollo
del proyecto del pez de Barcelona, y posteriormente para el proyecto del
Museo Guggenheim de Bilbao.
16. La imagen de un pez, para Gehry quedó atribuida a una especie de broma
académica: “Todo el mundo estaba citando edificios clásicos antiguos, así que yo
decidí citar algo que era cinco millones de años más antiguo que la humanidad”.
Zaera, A. (1995). “Conversaciones con Frank O. Gehry”, El Croquis, Frank Gehry,
1991-1995, Nº 74/75. pp. 33.
Fig. 13. Diseñada por Frank Gehry
–con la colaboración de Philip Johnson–, la casa Lewis se encuentra ubicada en lo alto de Lyndhurst, en las
afuera de la ciudad de Cleveland.
131
Parte III. El punto de inflexión
Fig. 14. Se utilizó la versión 3 y 4 del
programa CATIA. Fue un ir y venir entre la computadora y el modelo. Un
proceso interactivo lento, hasta que
finalmente se obtuvo lo que Gehry llamó cabeza de caballo.
132
Marcelo A. Fraile - Arquitectura biodigital
Luego de una intensa búsqueda, y gracias a la ayuda de Smith, finalmente se decidió utilizar CATIA (Computer Aided Three Dimensional Interactive Application), una plataforma digital creada por la empresa Dassault
Systems para el diseño de aviones cazas franceses.
Elaborada finalmente la documentación en CATIA, Smith viajó a Italia para ser presentado ante Permasteelisa.
Finalmente, el proyecto fue aceptado dada la claridad y precisión de su documentación.
Para Dennis Dollens, la escultura del pez de Barcelona fue un protoedificio, un experimento a gran escala
que a través de sus curvaturas, plegamientos y escamas, buscaba romper con la geometría tradicional
(2002, p. 26).
Un ejemplo más evolucionado del tema es la Lewis Residence17. Diseñada por Frank Gehry –con la colaboración de Philip Johnson–, la casa Lewis se encuentra ubicada en lo alto de Lyndhurst, en las afuera de la ciudad
de Cleveland. Una superficie aproximada de 2.000 m2 cuyas complejas formas simulan la vela de un barco.
En la casa Lewis, Gehry se apoyó en un modelo físico, realizado con tela de terciopelo endurecida con cera:
una maqueta abstracta, compuesta rápidamente, destinada a estimular las ideas durante el proceso de diseño
(Dollens & Planella, 2002, p. 26).
A continuación, el modelo fue digitalizado a partir de un escáner 3D y permitió obtener una lluvia de puntos
que podían ser leídos por la computadora (Dollens & Planella, 2002, p. 26).
Al igual que con el pez de Barcelona, el modelo fue elaborado en AutoCAD 2D y 3D, para ello se había contratado a Kristin Ragins. Sin embargo, el problema se presentaba cuando se quería desarrollar el modelo y acotar
las superficies; el resultado era tan complejo que imposibilitaba hacer la documentación. Finalmente, se utilizó la
versión 3 del programa CATIA. En la V3 no existía sombreado dinámico en tiempo real. Para ello se debía congelar la imagen y ejecutar por lote para producir la sombra de una imagen y poder analizar. Caso contrario, se
trabajaba con una estructura de alambre. Esto obligó a que se cambiara de versión durante el diseño. La versión
V4 incluía el sombreado dinámico, se podía ver el sombreado de las formas en la pantalla, por lo que era posible
girar la imagen y ver la sombra en tiempo real. Se obtenía un resultado similar al modelo físico. (Lynn, 2013).
Fue un ir y venir entre la computadora y el modelo. Un proceso interactivo lento, hasta que finalmente se obtuvo lo que Gehry llamó cabeza de caballo.
La representación en el nuevo milenio
Los sistemas digitales están cambiando la manera en la cual se realizan las tareas de diseño, la enorme cantidad de información existente en el mundo contemporáneo hace imposible el manejo de esta sin su ayuda. 133
Su gran valor queda evidente en la posibilidad de explorar y desarrollar una nueva arquitectura que refleje el
espíritu presente (Rivera Ojeda & Guerra, 1999, p. 11).
Una nueva gama de herramientas comienza a desarrollarse, una serie de interfaces gráficas con la intensión
de facilitar a los usuarios el acceso a la información. Guantes hápticos, cascos con visores de realidad virtual,
sistemas de realidad aumentada, han reemplazado al lápiz y la escuadra del mundo mecanicista por nuevos
instrumentos, ahora “digitales”, lo que permite a los diseñadores descubrir nuevos horizontes de imágenes
georreferenciadas, que se superponen al mundo real y lo multiplican, lo potencian y lo resignifican. Métodos
digitales que intentan llegar a niveles más avanzados de hacer y pensar la arquitectura –recuperando el hacer
del artesano, del escultor–, ahora modelando digitalmente los espacios, pudiendo desarrollar con mayor precisión la generación de sus complejas formas.
Ya es tiempo de zanjear la vieja disputa y reconocer como reales los trabajos en espacio digital, el software y
los ordenadores (Dollens & Planella, 2002).
17. El proyecto de la Residencia Lewis, comenzó en 1985. Sin embargo, su proceso digital fue posterior al pez de Barcelona y el proyecto concluyó en 1995. Este trabajo, junto con el pez, formaron parte de la exposición Archeology of Digital,
del 2013, desarrollada en el Canadian Centre for Architecture, y bajo la curaduría de Greg Lynn.
Parte III. El punto de inflexión
Figuras
Fig. 1. Curvas barcos. http://www.alatown.com/spline-history-architecture/
Fig. 2. Patos. http://www.alatown.com/spline-history-architecture/
Fig. 3. Curvas Francesas. http://www.alatown.com/spline-history-architecture/
Fig. 4. Curva de Casteljau. http://www.alatown.com/spline-history-architecture/
Fig. 5. Curva Bezier. http://www.upload.wikimedia.org/wikipedia/comms/a/ao/Bezier_curve.svg.
Fig. 6. B-spline. http://www.alatown.com/spline-history-architecture/
Fig. 7. NURBS. http://www.alatown.com/spline-history-architecture/
Fig. 8. T spline. http://www.alatown.com/spline-history-architecture/
Fig. 9. RGB. http://archive.xaraxone.com/webxealot/workbook35/page_5.htm
Fig. 10. http://conceptodefinicion.de/realidad-virtual/
https://otropsicologo.files.wordpress.com/2014/06/realidad-virtual-2.jpg
Fig. 11. https://cif.ie/2015/04/01/augmented-reality-and-the-future-of-construction/
https://www.arquitecturayempresa.es/noticia/visuartech-app-de-realidad-aumentada
Fig. 12. Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995.
Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal:
Canadian Centre for Architecture.
Fig. 13.Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995.
Fig. 14. Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995.
Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal:
Canadian Centre for Architecture.
134
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 3. LA MATERIALIDAD: PREFABRICACIÓN
A LA CARTA
“Acaba de comenzar una gran época. Existe un espíritu nuevo. La industria, desbordante como el río que corre hacia su destino, nos trae
nuevas herramientas, adaptada a estas nuevas épocas animadas de
espíritu nuevo”. (Corbusier, 1964).
En 1901, el pionero de la industria automovilística estadounidense Ransom Elis Olds (1864-1950) diseñaba su “sistema de montaje progresivo”
para construir el Oldmobile Curve Dash, el primer vehículo producido en
serie: en el diseño original de Olds, ya estaban presentes algunas de las
características de las fábricas actuales, tales como estaciones de trabajo fijas distribuidas a lo largo de la línea, el uso de piezas estandarizadas
e intercambiables y el empleo de operarios que realizaban trabajos específicos, simples y repetitivos.
Las ideas de Olds fueron rápidamente acogidas y perfeccionadas por
Henry Ford (1863-1947), quien las convirtió en un sistema que podía
ser adaptado para la fabricación de casi cualquier cosa que la mano del
hombre pudiera producir: “desde la cuchara a la ciudad”.
Esencialmente, la cadena de montaje desarrollada presentaba tres principios básicos: una cinta transportadora que facilitaba el desplazamiento
de los componentes; una racionalidad en las operaciones desarrolladas;
y, finalmente, una cadena de montaje que trasladaba el producto a través de los diferentes puestos de trabajo. En poco tiempo, la producción
en serie transformaría la industria automovilística en una empresa innovadora, y produciría cambios asombrosos que tendrían sus ecos en el
resto de la sociedad.
En el campo de la arquitectura, con la publicación en París en 1923 de
Hacia una arquitectura, Le Corbusier (1887-1965) establecía una rígida
normativa industrial que regulaba el diseño en sus diferentes escalas.
Un modelo estandarizado y mecanicista, con un sistema de producción
prefabricada; una producción de objetos sin variaciones, rigurosamente
idénticos de acuerdo con una estricta geometría euclidiana.
Como si de un sueño se tratara, los arquitectos debían diseñar perfectas
máquinas de habitar, eficientes y funcionales. Posteriormente, la industria sería la encargada de producir sus partes, que habrían de ensamblarse en el modelo final.
Sin embargo, pese a los avances en materia de robótica y automatización de la industria, en el campo de la construcción, los adelantos quedaron restringidos a la fabricación de elementos modulares que requerían de operarios y máquinas para su montaje en obra. Por más increíble
que pareciera, en esencia, la construcción a finales de la década del 90
continuaba manteniendo un sistema constructivo con base en el trabajo
135
Fig. 1. En 1901, el estadounidense Ransom Elis Olds (1864-1950) diseñaba su
“sistema de montaje progresivo” para
construir el Oldmobile Curve Dash.
Parte III. El punto de inflexión
del hombre. Esto se debía a la ausencia de una tecnología lo suficientemente desarrollada para absorber la gran escala de fabricación, sumado
al todavía considerable costo de los equipos y de los materiales.
No obstante, con la llegada del nuevo milenio, frescas señales se divisaban en el horizonte: una fabricación inteligente, bajo una raíz tecnológica-digital, nos invitaba a recuperar el antiguo sueño de personalizar
la producción.
Nuevos programas de modelado paramétrico permitían explorar complejas formas y organizaciones, que con la aplicación de tecnologías
CAD/CAM y máquinas de control numérico por computadora (CNC), posibilitaban la combinación de procesos de diseño y técnicas de fabricación para producir objetos físicos.
Un modelo estético de vanguardia y experimentación, producido bajo
una flexibilidad absoluta; es lo que Mario Carpo denomina “non-standard seriality” (Lynn, 2008), una producción en serie de artículos diferenciados. Una renovada visión del mundo que nos ofrece desconocidos
retos sobre los cuales los científicos puedan trabajar en el futuro.
La mecanización consciente
Fig. 2. En 1920, el escritor Karel Čapek
escribía su exitosa obra RUR, en donde utilizaba por primera vez el término
robot, una adaptación al inglés de la
palabra checa robota, que significaba
“trabajo forzado”, “servidumbre”.
136
Desde tiempos inmemoriales, el hombre ha construido máquinas y herramientas que reproducen las actividades humanas: comenzando con
los brazos mecánicos egipcios, los sistemas hidráulicos de las esculturas griegas, o las muñecas mecánicas de Henri Maillardert (1745-1830)
en 1805; todos estos, en mayor o menor medida, fueron diseñados y
construidos para desarrollar múltiples tareas en poco tiempo, facilitando
la vida de los hombres.
En 1920, el escritor Karel Čapek (1890-1938) escribía su exitosa obra
RUR1, en donde utilizaba por primera vez el término robot, una adaptación al inglés de la palabra checa robota, que significaba “trabajo forzado”, “servidumbre”. Con el tiempo, la palabra robot se popularizaría y
quedaría asociada a la idea de progreso y futuro.
En su libro, Čapek escribía: “Dentro de diez años… los robots producirán
tanto trigo, tanto tejidos, tanto de todo, que las cosas carecerán de valor.
No habrá pobreza…; además los robots fabricarán ladrillos y construirán
edificios para nosotros” (Prieto, 2012).
En 1939, casi veinte años después, las ideas de Čapek fueron tomadas por el escritor ruso-estadounidense Isaac Asimov (1920-1992) quien
contribuiría a popularizar el término robot, en varias de sus obras2.
1. (RUR). Robots Universales Rossum.
2. A él se le atribuye el haber acuñado las famosas “tres leyes de la robótica”.
Primera ley: un robot no puede actuar contra un ser humano, o mediante su
inacción un ser humano no puede sufrir daños; segunda ley: un robot debe obedecer las órdenes dadas por los seres humanos, salvo que estén en conflicto
con la primera ley; y finalmente la tercera ley: un robot debe proteger su propia
existencia, a no ser que esté en conflicto con las dos primeras leyes.
Marcelo A. Fraile - Arquitectura biodigital
Sin embargo, pese a su popularidad en el campo de la literatura, las investigaciones en torno a la automatización y sus aplicaciones prácticas
durante mucho tiempo quedaron circunscriptas exclusivamente al campo de la industria aeronáutica y automovilística.
A pesar de esto, dos pasos significativos se producirían a finales de la
década de 1980 –tras la unión de un proceso de diseño digital (CAD),
con una materialización controlada por computadora (CAM)–, lo que impulsaría la implementación de tecnologías CAD/CAM en el campo de la
arquitectura.
El primero de estos se produjo en 1985, cuando se encargó al arquitecto
catalán Jordi Bonet (1925) la continuación de la obra del templo de la
Sagrada Familia de Barcelona, de Antoni Gaudí. Dos años después, en
1987, Bonet se reuniría con Alfons Juyol con el objetivo de comenzar una
investigación relacionada a la sistematización de la construcción, a través
de la implementación de máquinas controladas mediante computadoras.
Bonet buscaba implementar un nuevo sistema de construcción para las
columnas, un sistema que permitiera acelerar, abaratar y definir con precisión su fabricación.
Juyol se ofreció a investigar en el Reino Unido las máquinas que habían
sido utilizadas para la restauración de los baños romanos de la ciudad
de Bath: una tecnología que era conocida para la prefabricación de piezas producidas en serie.
El problema principal en la Sagrada Familia era la geometría de las columnas: las existentes en Bath eran de orden clásico mientras que las
columnas de Gaudí eran helicoidales de doble giro, algo que no se había
construido mediante una máquina hasta el momento. Otro inconveniente
adicional era el material; en general ese tipo de máquinas herramientas
habían sido utilizadas para cortar mármol, en tanto que para las obras
del templo de Barcelona se requería que fuera granito, un material de
mayor dureza.
Luego de diversas investigaciones, Bonet decidió comprar una máquina
modelo Sigma -4- CNC, de la firma Van Voorden, una empresa holandesa con experiencia en el mercado de las maquinarias desde 1941.
Sin embargo, el trabajo no estaba concluido. Fue necesario la incorporación de nuevos elementos y la reprogramación de diversos componentes
para que la máquina comenzara la construcción de la columna en 1989:
Antoni Caminal fue uno de los responsables de interpretar numéricamente la Sagrada Familia y establecer la comunicación con la máquina3.
La primera columna construida mediante el sistema CAM fue la dedicada a la diócesis de “Lleida”, una de las columnas que formaba parte de
la nave central. Los únicos datos que existían al respecto era la base
3. En 1979 Mark Burry visita Barcelona y se entrevista con Isidre Boada y Lluis
Bonet i Garí, dos antiguos colaboradores de Antoni Gaudí. A partir de esta reunión, Burry comienza a investigar la geometría oculta de la Sagrada Familia.
Posteriormente, en 1986, Jordi Bonet vuelve a encargar a Mark Burry nuevos
trabajos sobre las definiciones geométricas de la obra.
Fig. 3. Juyol se ofreció a investigar
en el Reino Unido las máquinas que
habían sido utilizadas para la restauración de los baños romanos de la ciu-
dad de Bath. El problema principal en 137
la Sagrada Familia era la geometría de
las columnas: las existentes en Bath
eran de orden clásico mientras que las
columnas de Gaudí eran helicoidales
de doble giro, algo que no se había
construido mediante una máquina hasta el momento.
Parte III. El punto de inflexión
estructural de la “columna de Tarragona” de 1921 y la “columna de Barcelona”, construida por Francesc Quintana entre 1954 y 1956.
Para 1991, se había finalizado la fabricación de la columna Lleida y se
daba comienzo a una nueva etapa en la construcción computarizada: un
vínculo preciso entre dibujo tridimensional a través de sistemas CAD y
su fabricación utilizando máquinas con tecnología CAM.
El segundo hecho se produjo en 1988 cuando se encomendó al arquitecto Frank O. Gehry el proyecto para el Walt Disney Concert Hall, en
Los Ángeles. Elegido de un concurso internacional en el que se presentaron más de 70 propuestas.
Inicialmente, el proyecto preveía una piel metálica que recubriría el edificio, pero tras una serie de modificaciones en el diseño, se decidió que
los muros curvos del exterior debían realizarse en piedra caliza italiana.
138 Fig. 4. La primera columna construida
mediante el sistema CAM fue la dedi-
cada a la diócesis de “Lleida”, una de
las columnas que formaba parte de la
nave central.
Con el fin de demostrar que la construcción de los muros era posible,
Gehry construyó un prototipo a escala real de una de las paredes curvas
de piedra que posteriormente digitalizó y exportó como una nube de
puntos al sistema CATIA, para ser transformados en un modelo CAD.
Finalmente, los archivos digitales fueron llevados a una cantera en Italia,
donde los paneles de piedra de doble curvatura serían cortados mediante una tecnología CAM (Kolarevic, 2003, p. 35) –un proceso donde
la computadora se comunicaba directamente con la cortadora de piedra,
sin pasos intermedios–.
En julio de 1998, luego de diversos problemas técnicos y económicos,
Gehry decide modificar el material de la fachada, reemplazando la piedra caliza por acero inoxidable. Finalmente, luego de quince años, el
edificio es acabado en octubre de 2003.
Durante los años de ejecución de la obra, Gehry continuó experimentando con la tecnología CAD/CAM en proyectos paralelos, como el “Fish” de
Barcelona en 1992, y el Museo Guggenheim de Bilbao, en 1997 (del que
Marcelo A. Fraile - Arquitectura biodigital
hablaremos más adelante). Una experimentación que buscaba definir un
Fig. 5. Para el Walt Disney Concert
vocabulario técnico, que todavía no había evolucionado lo suficiente. Y
es que, conceptualmente, la automatización en la construcción seguía
Hall, Gehry construyó un prototipo
asociada a una serie de operaciones inconexas, solo eran etapas dentro
de un proceso todavía convencional.
curvas de piedra que posteriormente
a escala real de una de las paredes
digitalizó y exportó al sistema CATIA.
Los archivos digitales fueron llevados
a una cantera, donde los paneles de
Los robots del amanecer
piedra serían cortados mediante una
Con la llegada del nuevo milenio, grandes avances en materia de ingenie-
problemas, Gehry decide modificar el
ría de microprocesadores condujeron a la aparición de sistemas y programas cada vez más eficaces: complejas herramientas de diseño paramétrico se habían unido a la cibernética, en un intento por desarrollar una
nueva materialidad que pudiera ser competitiva con la industria convencional. Esto es, una nueva generación de sistemas CAD/CAM, conectados bajo un lenguaje de programación con parámetros variables. En otras
palabras, un nuevo idioma que permitiera a los diseñadores controlar la
máquina y fabricar sus objetos con mayor precisión y flexibilidad, un medio para traducir las imágenes en un mapa topográfico construible.
Para el filósofo mexicano Manuel De Landa es el nacimiento de un “Nuevo materialismo” (Leach, 2009, p. 32 y ss), que utiliza complejas herramientas capaces de reproducir patrones formales en tres dimensiones y
crear espacios arquitectónicos habitables. Espacios que son entendidos
por Kolarevic como “espacios geométricos no euclidianos, sistemas cinéticos y dinámicos” (2003, p. 3).
Estamos inmersos dentro de una nueva revolución industrial, una revolución 2.0 producto de una sociedad superconectada, desilusionada
y desencantada del planteo industrial, con síntomas de una modernización incompleta que, como sugiere el crítico estadounidense Fredric
Jameson (1934), retoma la temática sobre la prefabricación pero la tiñe
de una contemporaneidad que no “… piensa en función de una serie o
repetición, sino en versiones o variaciones” (Ortega & Zaera-Polo, 2009).
tecnología CAM. Luego de diversos
material de la fachada, reemplazando
la piedra caliza por acero inoxidable.
139
Parte III. El punto de inflexión
Nuevos sistemas de fabricación, provistos de brazos mecánicos o “efectores”, vinculados a un sistema de comando central, que posibilitan una
fabricación flexible donde se integra mecánica y electrónica. Una construcción física robotizada, de variaciones automatizadas, había dado
muerte a la producción en serie uniforme de la modernidad: da lo mismo
construir un objeto o miles, el costo será igual, la cantidad de productos
ya no es una limitante a la hora de fabricar.
Quizás, uno de los trabajos más interesantes al respecto sea el proyecto
para la ampliación de las Bodegas Gantenbein, en la ciudad helvética de
Fläsch, un proyecto del 2006 de los arquitectos suizos Fabio Gramazio
y Matthias Kohler (2006).
El diseño inicial fue desarrollado a partir de un esqueleto estructural de
hormigón armado, cerrado con un muro perforado de mampostería que
actuaría como filtro y mantendría una temperatura e iluminación constante. Una serie de paneles prefabricados de ladrillo, diseñados a partir de
un algoritmo genético, cuyas variables habían sido definidas previamente
de acuerdo con los parámetros de luz y asoleamiento, evitaban la entrada
de luz directa.
Interiormente, el panel estaba recubierto con placas de policarbonato,
con el objetivo de evitar la entrada de viento.
Para su construcción, los muros fueron manufacturados en el área de
investigación de la ETH en Zúrich, mediante KUKA –un brazo robot industrial, que ubicaba con total precisión cada uno de los ladrillos y el
Fig. 6. El diseño inicial fue desarrollado a partir de un esqueleto estructural
adhesivo, de acuerdo con los algoritmos genéticos programados previamente–: 20.000 ladrillos dispuestos con un ángulo y separación milimétrica, transformaban cada panel en único.
de hormigón armado, cerrado con un
muro perforado de mampostería que
actuaría como filtro y mantendría una
temperatura e iluminación constante.
140
Posteriormente, los paneles fueron transportados al sitio para ser instalados mediante grúas: una fachada de 400 m2 y 72 elementos conferían
al edificio una curiosa apariencia textil.
Marcelo A. Fraile - Arquitectura biodigital
Fig. 7. Bajo la abstracción de una
cesta llena de uvas, se modeló un
conjunto de esferas de diferentes tamaños, dentro de un espacio virtual.
Simulando la gravedad digitalmente,
se forzó a las “esferas”, a que ocuparan el espacio casi por completo. A continuación, el resultado fue
procesado, con el fin de elaborar un
mapa topológico con la rotación de
los ladrillos (Dunn & Casasnovas,
2012, p. 111).
141
Fig. 8. Un brazo robot industrial, que
ubicaba con total precisión cada
uno de los ladrillos y el adhesivo, de
acuerdo con los algoritmos genéticos programados previamente.
Parte III. El punto de inflexión
Dos años después, Fabio Gramazio, Matthias Kohler y Raffaello D’Andrea,
con ocasión de la Bienal de Arquitectura de Venecia del 2008, se unieron
con la ETH de Zurich para realizar la primera instalación arquitectónica
diseñada a partir de una serie de algoritmos paramétricos y construida
mediante el uso de robots con capacidad para volar. Estos sistemas, denominados ROB, fueron utilizados para construir un muro bucle de 3,5 m de
ancho por 6 m de altura, empleando para ello 1.500 ladrillos de espuma de
poliestireno prefabricado (Gramazio & Kohler, 2011).
Concebida como una estructura arquitectónica vertical, la instalación
abordaba inéditas formas de pensar y materializar la arquitectura a través de un proceso de ensamblaje revolucionario: una megaestructura
montada mediante “máquinas voladoras”.
Todo esto parece confirmar que estamos ante la aparición de una nueva
generación de sistemas de prefabricación digital de alta perfomance.
Herramientas con precisiones milimétricas han permitido la materialización de nuevas formas: superficies variables, topológicas y estructuralmente optimizadas. Desde complejos proyectos con presupuestos
elevados, hasta diseños básicos con costos reducidos, el uso de las
tecnologías CAD/CAM han provocado cambios sustanciales en el campo de la producción arquitectónica.
En este sentido, Your HOUSE, puede ser entendido como una nueva
mirada sobre la construcción de viviendas prefabricadas. Desarrollada
por el profesor Larry Sass del Laboratorio de Diseño del MIT, el proyecto
consistía en un módulo habitacional estándar de madera contrachapada
Fig. 9. Estos sistemas, denominados
ROB, fueron utilizados para construir
un muro bucle de 3,5 m de ancho por 6
m de altura, empleando para ello 1.500
ladrillos de espuma de poliestireno prefabricado (Gramazio & Kohler, 2011).
142
reciclada, al que se le adiciona una de las cuatro fachadas típicas Shotgun House, de New Orleans.
Un proyecto sistematizado, desarrollado mediante tecnología CAD/CAM,
permitía que en el plazo de una semana, la casa fuera fabricada y ensamblada mediante encastres a la fricción, eliminando tornillos y clavos.
Una tecnología de vanguardia, para desarrollar viviendas prefabricadas
de bajo costo (Sass, 2007).
En los últimos años, tanto la robótica como la fabricación digital se han
convertido en un campo fértil para desarrollar las investigaciones más
espectaculares.
Nuevos sistemas vinculan la creatividad y flexibilidad de los procesos proyectuales con la economía y velocidad de los sistemas de prefabricación. Mediante un sistema digital, es posible transmitirle a la máquina una cantidad
ilimitada de órdenes, definidas a través de líneas de código alfanumérico.
El robot ha dejado de ser solo mecanismo dentro de una cadena de
producción, para convertirse en el responsable de toda una coreografía,
capaz de generar objetos (Prieto, 2012).
Marcelo A. Fraile - Arquitectura biodigital
La fabricación digital
De acuerdo con su definición, el concepto de fabricación digital puede
ser entendido como “…cualquier proceso que posibilita la producción de
componentes físicos, reales y táctiles que están siendo cibernéticamente
controlados a partir de una máquina vinculada a uno o más ordenadores”
(Orciuoli, 2011).
Una nueva tecnología, íntegramente digital, sin pasos intermedios: conocidos como file-to-factory, (del archivo informático a la fábrica), esto
es, del diseño digital a la máquina de fabricación, sin pasos intermedios
(Dunn & Casasnovas, 2012, p. 77).
Una tecnología cada vez más accesible, que permite a cualquier persona en la intimidad de su casa convertirse en diseñador, fabricante, distribuidor y comercializador de sus productos. Para la diseñadora holandesa Iris Van Herpen (1984), el futuro del planeta, y en especial el de la
moda, sufrirán una profunda transformación gracias a los avances tecnológicos: “todo el mundo podrá tener escaneado su propio cuerpo y a
partir de [una] impresoras 3D [fabricar su propia] ropa” (Howarth, 2013).
Van Herpen es una de las primeras diseñadoras en investigar el potencial de las nuevas tecnologías digitales aplicadas al diseño de la indumentaria. Durante el año 2010, en la semana de la moda de Ámsterdam,
presentó su colección Cristalización, la primera colección de prendas
de vestir diseñadas utilizando geometrías complejas que imitan los elementos de la naturaleza, materializada íntegramente mediante una impresora 3D. En el 2013, Van Herpen, Rem Koolhaas y la compañía líder
Stratasys 3D se asociaron para la creación de 12 pares de zapatos impresos. Esto configura lo que según ella establecerá una nueva frontera
en el diseño de moda.
De igual modo, en el campo de la medicina, la fabricación digital hace
tiempo que se viene utilizando para producir un sinnúmero de objetos
anatómicos: desde implantes dentarios hasta “prótesis personalizadas”
para trasplantes óseos. Sin embargo, el tema no concluye allí; un equipo
de bioingenieros y médicos del Weill Cornell Medical College, de la Universidad de Cornell, liderados por el profesor Lawrence Bonassar, han
desarrollado un oído artificial a partir del uso de una impresión en 3D y
geles inyectables de células vivas (Ju, 2013).
Bonassar y sus colegas desarrollaron, a partir de una imagen digital tridimensional y de una impresora 3D, el molde de la oreja de un hombre.
Posteriormente, inyectaron al molde 3D colágeno derivado de cola de rata
y a continuación, 250 millones de células de cartílagos extraídos de orejas
de vaca. El colágeno actúa como un soporte sobre el cual puede crecer el
cartílago que, por no ser vascularizado, no requiere suministro de sangre
para sobrevivir.
Los investigadores se encuentran actualmente buscando expandir la población de células del cartílago del oído humano, a fin de ser utilizadas
Fig. 10. Un proyecto sistematizado, desarrollado mediante tecnología CAD/
CAM, permitía que en el plazo de una
semana, la casa fuera fabricada y
ensamblada mediante encastres a la
fricción, eliminando tornillos y clavos.
143
Parte III. El punto de inflexión
en el molde, como un reemplazo del cartílago de vaca. Se espera que
en un futuro próximo la tecnología permita utilizar células humanas, especialmente la del mismo paciente, uno de los más importantes avances
en materia de medicina regenerativa y de trasplante de órganos, para
evitar de este modo el riesgo de posibles rechazos que tienen actualmente dichas intervenciones.
Uno de los primeros resultados alentadores en el tema se produjo el 9
de febrero de 2012, cuando los médicos Glenn Green y Scott Hollister,
del Hospital CS Mott de Niños de la Universidad de Michigan, colocaron
una férula impresa 3D alrededor de las vías respiratorias de Kaiba, un
paciente de tres meses de edad con defectos respiratorios congénitos:
utilizando una tomografía computarizada de la tráquea, se desarrolló un
modelo digital de la férula, que posteriormente fue impresa a partir de
un biopolímero llamado policaprolactona. La férula fue cocida alrededor
Fig. 11. Un equipo de bioingenieros
y médicos del Weill Cornell Medical
College, de la Universidad de Cornell, liderados por el profesor Lawrence
Bonassar, han desarrollado un oído
artificial a partir del uso de una impresión en 3D y geles inyectables de
células vivas (Ju, 2013).
de las vías respiratorias con el fin de expandir sus bronquios y darle un
soporte para su crecimiento adecuado. Con el tiempo, se espera que
la férula sea completamente reabsorbida por el cuerpo (Zopf, Ohye, &
Nelson, 2013).
Ahora bien, paradójicamente, en el ámbito de la arquitectura, todavía
es reciente la aparición de la robótica y de la automatización en la
construcción. En cualquier caso, el futuro parece prometedor: la compañía D-Shape4, fundada por Enrico Dini, se encuentra desarrollando
una impresora 3D a gran escala que utiliza como materia prima un
producto similar al hormigón, sobre la base de una mezcla de piedra
arenisca y cloro.
La impresora cuenta con grúas y elementos para desplazarse por la
144
Fig. 12. Base permanente para cuatro
personas en el polo sur de la Luna.
Proyecto del estudio de los arquitectos
Foster + Partners, y de la Agencia Espacial Europea (ESA).
obra, “imprimiendo” los muros con tareas repetitivas, de acuerdo con
un diseño previamente cargado. La impresión es realizada en capas,
siempre en número par: la primera, de arena con el aglutinante líquido
y, la segunda, de arena seca. Si bien todavía la impresora requiere de la
atención humana, se prevé que en un futuro próximo la tecnología mejorará considerablemente como para obtener una herramienta absolutamente autónoma, funcional y confiable. Así lo cree el arquitecto holandés
Janjaap Ruijssenaars de Universe Architecture, que actualmente se encuentra colaborando con el ingeniero italiano Enrico Dini para construir
una casa bajo esta tecnología, con forma de cinta de moebius5: una tira
retorcida y unida para formar un bucle de 6 x 9 m, una superficie de una
sola cara en una curva continua, sin principio ni fin.
Más aún, la apuesta parece redoblarse, con el ambicioso proyecto del
estudio de los arquitectos Foster + Partners, quienes se han unido con la
Agencia Espacial Europea (ESA) con el fin de construir una base permanente para cuatro personas en el polo sur de la Luna (De Kestelier, 2013).
El proyecto consiste en una estructura de protección resuelta con tubos
modulares, a modo de esqueleto, vinculados por medio de una cúpula
4. Página web de la empresa https://d-shape.com/.
5. Diagrama estudiado por el astrólogo y matemático August Ferdinand Möbius
(1790-1868).
Marcelo A. Fraile - Arquitectura biodigital
145
hinchable que se desplegará sobre estos. Por encima, se construirá una
estructura sólida, en forma de cúpula, que será edificada por medio de
una impresora 3D con brazos robotizados: con cada pasada, la máquina
irá “imprimiendo los muros” mediante una ligera espuma conformada
principalmente con suelo lunar o “regolito”, sistema que además de ser
práctico, generará un ahorro de entre 30% y 50 % en los costos.
Para el estudio británico Foster + Partners, la estructura está planeada
para poder levantarse en cuestión de horas, a fin de proteger y albergar
a sus habitantes de las drásticas y cambiantes temperaturas, de los micrometeoritos y de la radiación gamma de la superficie lunar.
De triunfar este proyecto, nadie podrá dudar de la fuerte incidencia que
tendrá en el futuro de la construcción arquitectónica.
Fig. 13. Una estructura resuelta con tubos modulares, a modo de esqueleto,
vinculados por medio de una cúpula
hinchable que se desplegará sobre
estos. Por encima, se construirá una
estructura sólida, por medio de una
impresora 3D con brazos robotizados.
Parte III. El punto de inflexión
Self service - Hágalo usted mismo
En 1917, el comerciante norteamericano Claurence Saunders (18811953) desarrolló un nuevo sistema de venta para su tienda Piggly Wiggly de Memphis, Tennessee: allí, los artículos estaban al alcance del
comprador, el cual los recogía de los estantes de la tienda y luego los
presentaba al cajero para pagar antes de salir. Este procedimiento iba
a reemplazar el viejo concepto del empleado como único acceso a los
productos, ya que era él quien los buscaba a pedido del cliente.
Este sistema se popularizó con el nombre de self service, una voz inglesa que hace referencia al autoservicio, donde el comprador se sirve él
mismo. Con el tiempo, el self service se transformó en una realidad cotidiana, su universo se ha incrementado considerable en todo el mundo
y en todas las áreas: desde la banca electrónica, las casas de comida
rápida, el alquiler de películas o incluso el check in de las aerolíneas
comerciales.
Fig. 14. Liberator, es la primera arma
de fuego de código abierto, capaz de
ser fabricada íntegramente por una
impresora 3D doméstica.
El concepto de self service tácitamente se encuentra asociado con el término,
“do it yourself”, que se traduce como “hazlo tú mismo”, y que trae consigo, en
su significado, la implicancia de autogestión, que lleva contenida además la
satisfacción personal por algo hecho con “mis propias manos”. Fabricar tus
propios muebles, construir tu propia casa, o simplemente hacer algún objeto
para regalar, otorga satisfacción a ese impulso creador, a esa “…característica humana ineludible que nos ha impulsado a partir de la edad de piedra
a la era moderna” (Fernández, 2012). Es la capacidad para moldear nuestro
mundo y asegurarnos la supervivencia, creando un ambiente que nos permita sobrevivir.
En 2005, Thomas L. Friedman, periodista y autor del libro The wold is
flat, aseguraba que la fuerza de esta era se encuentra en las conexiones
y la capacidad de los individuos para tomar el control de todo.
146
Tras una industrialización desmesurada de todos los campos del conocimiento, el concepto del objeto único, fabricado o reparado por uno mismo, parece una oferta tentadora. Aparece un rechazo a la idea de tener
que comprar artefactos despersonalizados, idénticos. Bajo esta nueva
filosofía, inventores y creadores experimentan con nuevas formas, utilizando herramientas de hardware libre para crear prototipos y pequeños
artefactos. Un nuevo paradigma que nos impulsa a hacer nuevas cosas,
fabricar objetos cuya materialización se realiza por medio del uso de
equipos controlados digitalmente. “Hecho por uno mismo”: objetos personalizados, con un valor extra: el del ser único, exclusivo.
Estamos ante una materialidad que ha convertido al diseñador contemporáneo nuevamente en artesano: donde innovadores procesos de fabricación le posibilitan materializar sus ideas a escala real, eliminando los
intermediarios.
Un ejemplo interesante al respecto es el caso de Liberator, la primera
arma de fuego de código abierto, capaz de ser fabricada íntegramente
Marcelo A. Fraile - Arquitectura biodigital
por una impresora 3D doméstica. Su creador, Cody Wilson (1988), un
estudiante de segundo año de la carrera de abogacía de la Universidad
de Derecho de Texas, había diseñado en 2013 una pistola cuyas partes
podían ser impresas en plástico ABS, con la única excepción de un clavo
de metal utilizado como percutor.
A continuación, un grupo de activistas que defienden el derecho al uso
personal de las armas, subieron a la red los planos necesarios para
construir el arma denominada Liberator. Esto permitió que cualquiera
pudiera descargarlos, copiarlos, modificar el arma o reproducirla libremente, solo por unos pocos dólares (Chalcraft, 2013). Y, en caso de no
contar con una impresora 3D, se podía enviar los archivos vía web a
algunos de los locales de la mega tienda Staples Easy 3D para su impresión, y luego optar por cuál sucursal pasar a buscar los resultados
(Etherington, 2013).
Pocos días después de su publicación, la Oficina de Control del Comercio Defensivo del Departamento de Estado de los Estados Unidos retiró
los planos de internet, sin embargo, estos todavía pueden encontrarse
en algunos sitios piratas de la web como The Pirate Bay.
En el año 2013, el museo Victoria y Alberto, y el museo de Ciencias de
Londres, compraron dos copias de la pistola Liberator para ser exhibidas
entre sus colecciones. Para Kieran Long, curador de la muestra, fue un
paso importante en la historia del diseño: “Un no-diseñador ha logrado
producir este año, un gran impacto en el diseño” (Lee, 2013).
Desde luego, sería demasiado simplista pensar que el tema está terminado; muchos son los interrogantes que quedan por responder y que ponen en discusión viejas polémicas como el control de armas, la propiedad intelectual o el derecho de autor. En cualquier caso, lo que sí queda
claro es que continuamente nuevas propuestas hacen su aparición en
este mundo digital y rápidamente son absorbidas por los diferentes campos de la vida humana. Nuevos conceptos y nuevos procesos que, gracias al uso de las redes digitales y de la cultura Open Source o “código
abierto”, pretenden expandir el conocimiento con una nueva mirada inocente, a una escala mayor. Mediante esta filosofía, uno podría descargar
cualquier proyecto, modificarlo, adaptando sus parámetros iniciales de
acuerdo con sus necesidades, para después construirlo.
En arquitectura, siguiendo esta línea de pensamiento, en 2011, el diseñador británico Alastair Parvin creó junto con el arquitecto Nick Leroridiaconou, WikiHouse: “un proyecto de código abierto que busca reinventar
la manera en que se hacen las casas” (2011). Una plataforma en línea,
sin fines de lucro, cuyo objetivo es permitir que cualquier persona pueda
diseñar su propia casa, luego descargar los planos, “imprimirlos tridimensionalmente”, y posteriormente montar las diferentes partes de la
vivienda con un mínimo de requisitos y conocimientos técnicos. En palabras de Parvin, sus instrucciones dicen: “cortar las partes de la casa,
ensamblarlas, construir la estructura entre tres o cuatro personas y tener
una vivienda básica” (Abad, 2013).
147
Parte III. El punto de inflexión
El proyecto prevé, en su portal de internet, una biblioteca compartida de
modelos tridimensionales que permiten ser modificados, personalizados
y descargados para su utilización de forma gratuita.
En resumidas cuentas, una comunidad basada en el intercambio y la colaboración de bienes, una “Wikipedia de la construcción” (Abad, 2013),
“una democratización de la industria” (Abad, 2013), que involucra a los
usuarios en tareas que tradicionalmente le son propias a los arquitectos.
El futuro es hoy
Fig. 15. Wiki-House. Una plataforma
en línea, cuyo objetivo es permitir
que cualquier persona pueda diseñar
su propia casa, luego descargar los
planos, “imprimirlos tridimensional-
148 mente”, y posteriormente montar las
diferentes partes de la vivienda.
Los importantes avances en el campo de la tecnología digital han generado una nueva relación entre el diseño y la fabricación, y han permitido
obtener resultados en los que el mundo físico se vincula al mundo virtual.
Ya nada impide que un estudio ubicado en Buenos Aires se conecte con
un estudio colega en Tokio para desarrollar un proyecto online en conjunto. Aprovechando la diferencia horaria y las nuevas plataformas interactivas de diseño paramétrico, ambos estudios podrían trabajar en el proyecto de un modo continuo, ahorrando tiempo y dinero en su ejecución.
Concluida la documentación técnica, esta podría ser enviada a través de
la nube a una empresa ubicada en Moscú donde –a través de sistemas
CAD/CAM, 3D printer, o mediante estructuras automatizadas capaces
de aprender–, se encargarían de la fabricación de sus partes: un proceso donde diseñar y construir no son excluyentes. De hecho, muchas
veces se retroalimentan bajo una personalización masiva.
A continuación, las partes podrían viajar hasta Sídney, en donde serían
montadas en obra mediante robots operarios. Una nueva generación
de máquinas, con ruedas y brazos mecánicos articulados, capaces de
desplazarse por el terreno que será construido, encargándose de la fabricación y del montaje final.
Marcelo A. Fraile - Arquitectura biodigital
En muy poco tiempo, estos autómatas serán los nuevos obreros de la postmodernidad, incapaces de sufrir
cansancio, preparados para trabajar jornadas de 24 horas, más veloces que los sistemas convencionales y
cuyos valores de precisión estarán tabulados en milímetros. Ellos serán los encargados de materializar los
avanzados proyectos de las futuras generaciones.
Figuras
Fig. 1. Oldmobile Curve Dash. https://en.wikipedia.org/wiki/Oldsmobile_Curved_Dash#/media/File:Oldsmobile_Curved_
Dash_Runabout_1904_2.jpg
Fig. 2. Rur, Karel Čapek (1920).
Fig. 3. Termas de bath. http://www.nationalgeographic.com.es/viajes/grandes-reportajes/la-ruta-de-jane-austen-2_7294/2
Fig. 4. Sagrada familia. http://www.sagradafamilia.org/en/geometry/
https://mcburry.files.wordpress.com/2013/02/img_4603.jpg
Fig. 5. Walt Disney Concert Hall. https://upload.wikimedia.org/wikipedia/commons/2/2e/Image-Disney_Concert_Hall_by_
Carol_Highsmith_edit.jpg
Fig. 6. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten
Fig. 7. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten
Fig. 8. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten
Fig. 9. Instalación realizada por los arquitectos Gramazio y Kohler y Raffaello D’Andrea. http://www.dezeen.
com/2011/11/24/flight-assembled-architecture-by-gramazio-kohler-and-raffaello-dandrea/
Fig. 10. Your house. http://prefabcosm.com/blog/2008/01/09/lawrence-sass-and-yourhouse/
Fig. 11. Oído impreso. http://www.news.cornell.edu/stories/2013/02/bioengineers-physicians-3-d-print-ears-look-act-real
Fig. 12. Proyecto Base Lunar – Estudio Foster + Partners. https://www.fosterandpartners.com/projects/lunar-habitation/
Fig. 13. Proyecto Base Lunar – Estudio Foster + Partners. https://www.fosterandpartners.com/projects/lunar-habitation/
Fig. 14. Liberator. https://www.dezeen.com/2013/12/06/3d-printed-plastic-guns-us-renews-undetectable-firearms-act/
Fig. 15. Wiki-House. http://www.wikihouse.cc/
149
Parte III. El punto de inflexión
150
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 4. LAS COMPLEJAS FORMAS BIODIGITALES
“En 1917 o 1918 le preguntaron a Jujol cómo sería su iglesia de Vistabella, y él respondió a la gente del pueblo
que se lo mostraría al día siguiente. A la hora acordada, Jujol se presentó con un trozo de madera que soportaba
unos cuantos alambres arqueados. Era su maqueta. Los relatos afirman que el público se quedó perplejo y, sin
embargo, esa maqueta de estructura de alambre, aunque esquemática, encerraba la visión arquitectónica que
Jujol se proponía construir, y para él era una herramienta de su proyecto de construcción. Representaba toda una
serie de superficies deformadas que emergían de unos muros ortogonales. En cierto sentido, era una maqueta
protovirtual, ni más ni menos arquitectónica que las maquetas virtuales actuales”. (Dollens & Planella, 2002, p. 32).
Para finales del siglo XX, la arquitectura había sufrido un importante proceso de reconfiguración. Con el creciente avance de las computadoras, los sistemas digitales se habían consolidado como una vanguardia en la
producción de un nuevo diseño, que viabilizaba la exploración sistemática de las posibilidades geométricas
de las formas complejas.
Espacios oníricos, volúmenes sin solución de continuidad, curvas enmarañadas y superficies variables, habían sustituido las estables cajas del paradigma mecanicista.
Bajo un control riguroso, la arquitectura del nuevo siglo encontraba su inspiración en la física, en la matemática, o en la biología: formas animadas, en constante mutación, sometidas a las fuerzas e interacciones del
entorno, que “participan en los flujos dinámicos”, dirigen el movimiento, y les permiten autorregularse.
Para el arquitecto holandés Rem Koolhaas (1944), es una arquitectura donde “…la acumulación y la adhesión
han reemplazado otras formas de organización, como la jerarquía y la composición” (Ingels, 2009).
La computadora contemporánea, “…Lejos de ser una herramienta pasiva e inerte, [se ha trasformado en] un
agente activo y dinámico que no solo permite representar ideas creativas, sino también generarlas” (Dunn
& Casasnovas, 2012, p. 76). El poder de las nuevas tecnologías ha permitido revelar los secretos del mundo
natural y poder trasladarlos al diseño arquitectónico. Estamos pasando de un proceso mecánico a emergente
donde la construcción de la forma está siendo reemplazado por el descubrimiento de la forma: “…un proceso
de selección similar al de la naturaleza, en el que mínimas mutaciones hacen posible la optimización y una
depuración extraordinaria en las formas” (González Cobelo, 2012, p. 9).
En el siglo XXI, la arquitectura presenta un nuevo modo de filosofar a través de un renovado lenguaje. El papel
de esta nueva arquitectura no finaliza con la exploración de nuevas formas y avanzados sistemas de fabrica- 151
ción: “La arquitectura sigue teniendo una parte de arte… no solo como algo funcional sino también estético y
simbólico” (Krauel, 2010, p. 273).
En este sentido, no se trata de copiar la naturaleza, sino de tomar en cuenta sus principios. Una arquitectura
que intenta establecer un equilibrio armónico entre “…lo funcional, que implica el proceso y el modo de vida;
lo constructivo que abarca materiales y tecnologías; y lo estético, donde radica la estructura ideo-emocional”
(Senosian Aguilar, 1998, p. 162).
Geometrías Topologías. La abstracción de la forma
La topología es una de las ramas más jóvenes de la matemática. Conocida inicialmente como “análisis de
posición”, sus orígenes se remontan al siglo XVII. El primero en mencionarla fue el filósofo y matemático alemán
Gottfried Leibniz (1646-1716), en su libro “Characteristicas Geometrica”, publicado en 1679.
De acuerdo con su definición matemática, la topología estudia aquellas propiedades de las formas geométricas, intrínsecas y cualitativas, “… que no son normalmente afectadas por cambios en el tamaño o con-
Parte III. El punto de inflexión
formación; es decir, que permanecen invariables a través de continuas
transformaciones o deformaciones elásticas, tales como el estiramiento
o la torsión” (Kolarevic, 2003a).
La topología estudia las propiedades de las formas geométricas complejas.
Para el escritor y filósofo mexicano Manuel De Landa (1952), la topología “…
es la ciencia de formas que pueden ser cambiadas las unas en otras por una
secuencia de desdoblamientos y operaciones de deformaciones” (2003).
A diferencia de la geometría euclídea –donde un objeto podía ser transformado en otro equivalente a través de operaciones isométricas (rotaciones, traslaciones, reflexiones, etc.) es decir, mediante transformaciones que conserven sus ángulos, longitudes, área y volumen–, en la
geometría topológica, un objeto puede ser transformado en otro equivalente mientras esto no genere cortes, ni se junten dos extremos (De
Landa, 2003).
Para la geometría topológica, dos objetos serán equivalentes si estos
tienen el mismo número de partes, de vacíos, de intersecciones, etc.
Desde este punto de vista, un cuadrado es “topológicamente semejante”
a un rectángulo (ya que tienen el mismo número de aristas, el mismo
número de vértices, etc.). Así, uno puede ser transformado en el otro de
una manera continua y reversible: extendiendo, achicando, torciendo, o
doblando sus partes. Siempre que estas no se corten, se separen sus
uniones o se peguen nuevos elementos. Estas propiedades se conocen
con el nombre de invariantes topológicas.
Tomemos un ejemplo: sobre la superficie de una membrana flexible, dibujemos un cuadrado. Seguidamente, sometamos dicha membrana a
diferentes acciones: estiramiento, giro, plegado, etc. Con cada operación notaremos cómo el cuadrado modifica algunas de sus propiedades
Fig. 1. Para la geometría topológica,
dos objetos serán equivalentes si estos tienen el mismo número de partes,
152 de vacíos, de intersecciones, etcetera.
(su forma, la longitud de algunos de sus lados, la distancia entre sus
vértices, etc.); sin embargo, existirán otras propiedades que no se modificarán nunca (la figura seguirá siendo continua, no tendrá cortes, no
aparecerá otro vértice, etc.) (Macho Stadler, 2010, pp. 5-6). Esto se conoce como “homeomorfismo”, y hace referencia a las transformaciones
biunívocas entre los puntos de la figura original y los puntos de la figura
transformada.
De esto se desprende que una esfera, desde el punto de vista topológico, nunca podrá ser transformada en un toro, ya que, para ello, deberíamos generar sobre la esfera una serie de transformaciones que
alterarían sus propiedades homeomórficas, como por ejemplo, romper
la continuidad de la figura para generar un orificio en esta.
En este sentido, conviene aclarar que la geometría topológica no es
sinónimo de formas curvilíneas complejas, ya que estas pueden tener
una perfecta ortogonalidad y, sin embargo, pertenecer a dicha familia.
En otras palabras, tanto las cajas como las bioformas “…son simplemente casos en una escala de complejidades formales: una caja podría
Marcelo A. Fraile - Arquitectura biodigital
convertirse en un blob y viceversa, simplemente variando los parámetros espaciales con los que se definen” .
(Kolarevic, 2003b, pp. 17-45).
Uno de los ejemplos es el edificio de Oficinas Üstra de Gehry en Hannover, Alemania, de 1999. Su forma parte
de un prisma simple el cual fue deformado con un proceso de rotación: “… el software de animación añade la
posibilidad de expresar, literalmente, el espacio y la forma de la metamorfosis de un objeto”. Una interpolación
de puntos donde el diseñador puede elegir el punto exacto de la deformación “…para producir una variedad de
formas híbridas que combinan atributos formales del objeto “base” y de “objetivos”” (Kolarevic, 2003b, pp. 17-45).
Blobs formas
El término blob fue inventado por el arquitecto database estadounidense Jim Starkey (1949), cuando trabajaba en Digital Equipment Corporation (DEC), quien, inspirado en la película de 1958 de Steve McQueen, utilizaba la palabra blob para referirse a “pedazos amorfos de código, de una cadena segmentada” de información
(Herrera, 2003). Tiempo después, Terry McKiever, una encargada del Departamento de Marketing de Apollo
Computer, ideó el acrónimo blob (Basic Large Object - Objeto grande básico). Curiosamente, la compañía
Apollo jamás registró ese nombre, por lo que, con el tiempo, la compañía Informix fue la que finalmente tomó
el vocablo e ideó el actual acrónimo Binary Large Objects (Blob. Objetos binarios grandes) para referirse a un
gran volumen de datos (imágenes, sonidos o archivos multimedia) almacenados en una base de datos, los
cuales cambian de forma de un modo dinámico.
En 1995, el arquitecto estadounidense Greg Lynn (1964) adoptó el término blob1, resignificándolo, para referirse a un nuevo y experimental tipo de arquitectura digital, caracterizada por sus formas orgánicas semejantes
a las amebas, y que requerían de plataformas algorítmicas digitales para su realización.
Para Lynn, un blob “…es cualquier forma que no tenga forma de caja o rectángulo” (Zavalbeascoa, 2007). Una
configuración inexacta que se disfraza como una forma exacta aislada de las fuerzas adyacentes. Son formas
orgánicas, evolutivas, superficies continuas aerodinámicas, mutaciones que se despliegan en una estructura
compleja, cuya conformación es importada del diseño de los autos y de los cascos de los barcos.
Como un paisaje topológico, el conjunto de blobs almacena varias combinaciones de superficies, su complejidad implica la fusión de múltiples elementos ensamblados.
Son formas concebidas dentro de un espacio virtual en movimiento, formas elásticas, flexibles, moldeables.
Un espacio que, como burbujas, se fusiona redefiniéndose mutuamente a través de la unión de sus superfi153
cies, sin un orden simple.
Asumiendo estas particularidades, Lynn abandona la geometría euclídea para encontrar inspiración en la
geometría topológica un medio para “…curvar, torcer, deformar y diferenciar las estructuras, desafiando las
nociones tradicionales preconcebidas de la arquitectura” (1999, p. 130), lo que genera toda una serie de nuevas tipologías inspiradas en formas orgánicas y metáforas digitales.
Para ello, Lynn utilizó una plataforma digital (Microstation) a la que bautizó con el nombre ‘blobby’: un sistema
de partículas que posibilitaban la generación de una nube de puntos en el espacio. Estos puntos eran capturados por Lynn, se los transformaba en curvas para generar finalmente una arquitectura con cualidades artísticas y formales. Posteriormente, los resultados se exportaban a Maya –un software capaz de plegar el modelo
en tres dimensiones, permitiendo además el renderizado de las superficies–, para finalmente desarrollar una
maqueta del modelo a través de una impresora de prototipado.
1. En 1998, Greg Lynn escribiría un artículo titulado “Folds, bodies & Blobs: Collected Essays”, el cual fue publicado en la
revista “Blobs, o Why Tectonics is Square and Topology is groovy”, en donde se atribuye la creación del término “arquitectura Blob”.
Parte III. El punto de inflexión
A finales de la década de 1990, el arquitecto estadounidense Wes Jones
(1958) acuñaría el término “blobmaster” para referirse al pequeño grupo
de arquitectos que desarrollaba un nuevo tipo de arquitectura a partir del
uso de software como medio de expresión de formas arquitectónicas.
Sin embargo, el término blob recién apareció impreso por primera vez
en diciembre de 2002, en un artículo del periodista estadounidense Wiliam Safire (1929-2009), titulado “Defenestration”, publicado en el The
New York Times Magazines: On Language.
En el artículo, Safire se refería a la arquitectura blob como una creación
de Lynn, “…cuando dibujaba una nube aleatoria de puntos que asumían
una forma… suelta… como una ameba, que los diseñadores a veces
llaman una forma biomórfica” (2002).
Bajo una mezcla de ironía y despectiva crítica, Safire relacionaba su
significado como un extraño juego de palabras entre “burbuja” y un “glóbulo de líquido parecido a una lágrima”, “un significado extendido de una
grosella o un huevo de pato, que los jugadores de cricket tratan como un
cero, por lo tanto, un error o una estupidez” (2002).
Por el contrario, para Lynn “aunque la arquitectura blob ‘carece de la
elegancia, rigor y belleza que viene de módulos, proporciones y simetría… a su debido tiempo, los arquitectos blob descubrirán una nueva
forma de belleza y elegancia en la voluptuosidad rítmica y en las formas
onduladas del cálculo diferencial” (Safire, 2002).
Una estética de “Blobby” que va más allá de las meras cuestiones decorativas. Su reto es precisamente entender la aparición de un nuevo diseño de “…aspectos generativos y de producción con tecnologías digitales” (Kolarevic, 2003b, pp. 17-45): son objetos binarios únicos, no existen
formas idénticas, su forma depende de una multiplicidad de variables y
del contexto en el que se encuentre.
154
Fig. 2. Blobwall Pabellón. Una innovadora reformulación del concepto de
ladrillo tradicional, a través de un objeto modular liviano hecho de plástico
de colores.
Una nueva arquitectura sin “tipos cerrados” ni “tipologías básicas”, una
arquitectura donde el cálculo es sinónimo de cambio, y es utilizado para
construir nuevas e inusuales formas: diseños irregulares, superficies
NURBS, formas semejantes a gotas de agua o salpicaduras, donde sus
estructuras son curvas que llevan implícita la ficción de la forma.
El uso de la topología en la arquitectura blob, o blobitectura ha potenciado el proceso creativo al contribuir a la generación de formas innovadoras, formas ligadas al movimiento, a la aparente aleatoriedad de un
caos controlado.
Uno de los proyectos al respecto es el Blobwall Pavilion2, del 2008. Una
colaboración entre Greg Lynn, Machineous (que desarrolló el método de
fabricación de los ladrillos) y Panelite (empresa dedicada a la fabricación
de paneles ligeros sobre la base de polímeros).
2. El Blobwall Pavilion, de Greg Lynn, fue expuesto en el SCI-Arc Gallery de
los Ángeles, para la exposición Skin + BOnes, entre el 30 de mayo y el 13 de
julio de 2008. Posteriormente, formó parte de la 11.ª Exposición Internacional de
Arquitectura de la Bienal de Venecia del 2008.
Marcelo A. Fraile - Arquitectura biodigital
Para Lynn, el Blobwall Pavilion es una innovadora reformulación del concepto de ladrillo tradicional, a través de un objeto modular liviano hecho
de plástico de colores: el Wall Blob es una forma trilobulada producida
en masa robóticamente. Un ladrillo prefabricado mediante un polímero
reciclable de baja densidad, resistente a los impactos, que sirve tanto
para interiores como para exteriores.
El sistema no utiliza la mano de obra humana, en su lugar, cada pieza
es cortada robóticamente para luego ser ensamblada con precisión
para formar un sistema de paredes independientes: un brazo robot
corta sus uniones con precisión, para posteriormente ser soldadas
mediante una herramienta que se utiliza para reparar guardabarros de
automóviles.
El pabellón es un sistema de paredes onduladas, resultado de la interacción de fuerzas direccionales y cambiantes. Una expresión biomórfica y
orgánica, bajo una conformación amebaforme, que requirió más de 500
Fig. 3. Blobwall Pabellón. Son formas
concebidas dentro de un espacio virtual en movimiento, formas elásticas,
flexibles, moldeables. Un espacio que,
como burbujas, se fusiona redefiniéndose mutuamente a través de la unión
de sus superficies, sin un orden simple.
155
Parte III. El punto de inflexión
ladrillos individuales de 10 colores diferentes para configurar sus paredes voluptuosas. Una recuperación de las grutas barrocas.
Dada sus características, cada ladrillo podía ser iluminado internamente a
través de una pequeña luz controlada mediante una computadora. Luces
carmesíes, ciruelas y rosadas, generaban que el pabellón se transformara
durante la noche, lo que convertía la pared en una mampostería pixelada.
En sus proyectos Lynn desarrolla una relación entre el movimiento y la
arquitectura, concebidos dentro de un espacio virtual. Para esto, utiliza
las teorías matemáticas y las tecnologías digitales, un tratamiento meFig. 4. Villa Nurbs. Un sistema de su-
diante curvas precisas y formas algorítmicas, primero dibujadas para
perficies lisas desarrolladas a través
luego, pasar a ser materializadas.
de geometrías NURBS y tecnología
nación de las formas artificiales con
Otro de los proyectos interesantes al respecto es la Villa Nurbs, en la localidad costera de Empuriabrava, Gerona. Desarrollada en el 2003, por
las orgánicas naturales.
Enric Ruiz-Geli + Cloud 9 Team.
de avanzada, que posibilita la combi-
156
Marcelo A. Fraile - Arquitectura biodigital
Una tipología en forma de óvalo, elaborada en una superficie de 130 metros cuadrados, gracias a la
utilización de sistemas CAD/CAM: un sistema de superficies lisas desarrolladas a través de geometrías
NURBS y tecnología de avanzada, que posibilita la combinación de las formas artificiales con las orgánicas naturales.
La casa se compone de un basamento escalonado de hormigón, cuya parte superior es coronado por una
cubierta traslúcida de burbujas de ETFE (Etileno-TetraFluoroEtileno), que sirven de aislamiento térmico
y acústico.
Su diseño es el resultado de una serie de 406 unidades alabeadas desarrolladas mediante un modelo
virtual tridimensional que, consideradas en conjunto, funcionan como si se tratara de una pared de hojas.
Dependiendo de la orientación, esta piel posibilita cerrar el edificio ante las condiciones adversas del
medioambiente.
Un tercer ejemplo interesante al respecto es el caso del museo Kunsthaus de Graz. Ubicado a orillas del río
Mur, en el centro histórico de la ciudad austriaca de Graz. El Friendly Aliens3 abrió sus puertas durante el 2003,
para conmemorar la elección de esta ciudad como Capital Europea de la Cultura. Obra del grupo Spacelab,
dirigido por los arquitectos británicos Sir Peter Cook (1936) y Colin Fournier (1934), fue el proyecto ganador de
un concurso organizado en el año 2000.
El edificio, concebido como un espacio dedicado a exhibiciones temporales de arte contemporáneo, es una
burbuja alargada azul, implantada dentro de un contexto urbano muy homogéneo y tradicional. Una suerte
de organismo vivo de extraños ojos, un resabio de forma animal, que contiene varios niveles en su interior y
se comunica con un edificio existente.
En su interior, una sala de exposiciones es iluminada gracias a 16 lucernarios que, como ojos, están ubicados
en el volumen amorfo. Estos lucernarios apuntan a diferentes puntos de vista y permiten no solo llevar la luz y
el aire fresco al interior del edificio, sino también enmarcar el paisaje circundante.
Su fachada, la BIX Facade4, concebida por el grupo de arquitectos alemanes Realities: united, está compuesta
por más de 1000 paneles conformados al vacío y laminados tridimensionalmente, de donde salen las protuberancias cilíndricas que conforman los lucernarios.
Los paneles están compuestos por una película de polietileno tereflatalato con la incorporación de hilos de
carbono anisótropos a fin de darle mayor resistencia a la tracción, a lo largo de las líneas de tensión, y paneles
estructurales de fibra Kevlar-Nomex para la resistencia a la compresión. Estas características le permiten múl- 157
tiples variaciones formales, estructurales (rigidez, opacidad, flexibilidad o transparencia), y abarcar la anchura
de la cubierta sin soportes estructurales intermedios. En su interior, se ubican los sistemas audiovisuales,
altavoces, elementos de iluminación y una serie de tubos laminados por donde circulan las diferentes canalizaciones necesarias.
La forma final fue alterada ligeramente “…después de que el análisis estructural digital, hecho por los ingenieros consultores Bollinger + Grohmann de Frankfurt, revelara que su comportamiento estructural podría
mejorarse con pequeños ajustes” (Kolarevic, 2003b, pp. 17-45).
Una piel sensible que incorpora dentro de su espesor 930 lámparas fluorescentes de 40 w, de forma circular
de diámetro de 40 cm, y sensores a modo de píxeles que se conectan a un sistema informático y transforman
la piel del edificio como una gran pantalla urbana, una pantalla de 20 metros de alto por casi 40 metros de
ancho, lo que le permite reproducir imágenes y textos en movimiento.
3. Friendly Aliens, del inglés “amigo alienígena”.
4. La palabra BIX nace de la combinación de las palabras “Big”, del inglés: grande; y “Pixel”, píxeles.
Parte III. El punto de inflexión
Fig. 5. El Friendly Aliens, una burbuja
alargada azul, implantada dentro de
un contexto urbano muy homogéneo
y tradicional.
158
Marcelo A. Fraile - Arquitectura biodigital
Fracturas, fragmentos y fracciones
De acuerdo al Diccionario de la Real Academia Española, la palabra fractal deriva del adjetivo latino ‘fractus’, que
significa fragmento, fractura, fracción, y se refiere a la “estructura iterativa que tiene la propiedad de que su aspecto y distribución estadística no cambian cualquiera que sea la escala con que se observe” (RAE, Asale, 2014).
Conceptualmente, un fractal es “… un objeto tal que sus bordes, su superficie o su estructura interna muestran
una constitución que, ampliada, aún hasta el infinito, se mantiene invariante” (de Spinadel, 2012, p. 13).
Los términos que rigen los fractales fueron introducidos por el matemático polaco Benoît Mandelbrot (19242010) en 1975, en su libro Los objetos fractales, en donde exponía sus primeras ideas sobre el tema.
En sus investigaciones, Mandelbrot había descubierto una serie de impredecibles fluctuaciones diarias en los
precios del algodón, las cuales se repetían en una escala de tiempo variable. Inicialmente consideradas como
puramente al azar pero que, a largo plazo, seguían una simetría en las vacilaciones si se las comparaba con
las fluctuaciones a corto plazo (de Spinadel, 2012, p. 12).
A partir de esto, Mandelbrot comenzaría a estudiar los fenómenos de la naturaleza tales como la costa de
Gran Bretaña, los cráteres en la luna o la distribución de las estrellas en la galaxia, para describir objetos cuya
lógica matemática presentara características fractales. En 1977, publicaría La geometría fractal en la naturaleza: un manifiesto en donde revelaba una relación armónica entre el orden y el caos existente en el ecosistema.
En los fractales, no existe diferencia entre el detalle y el conjunto “…pues no se hace referencia a un tamaño.
Al no existir escala, todo pasa a ser una serie infinita de la que no podemos saber cuál es su origen ni qué
partes son ampliaciones de un todo” (Soriano, 2004, pp. 34-35).
Mandelbrot descubrió que las partes de un objeto podían ser divididas en N partes idénticas, es decir, una
división en N partes autosemejantes, donde cada una de estas está en relación matemática con el todo (Spinadel de, Perera, & Perera, 2007, p. 2).
Este concepto de autosemejanza puede ser de dos maneras: la primera, denominada determinista, se caracteriza por ser matemáticamente exacta; en tanto que la segunda es la natural y corresponde con aquella que
se encuentra en la naturaleza, y en donde su autosemejanza es aproximada (Bosi, 2012, p. 83).
De acuerdo a la doctora Spinadel (2007, p. 2), las propiedades características de un fractal son:
-
Su estructura fina, la cual posee más detalle cuanto más pequeña es.
-
Su irregularidad no puede ser descripta mediante la Geometría Euclidiana tradicional.
-
Poseen una cierta forma de autosemejanza, aproximada o estadística.
-
Su dimensión fractal es mayor que su dimensión topológica.
-
En muchos casos, sus formas son simples y recursivas.
En el caso de los fractales deterministas, estos constituyen un nuevo tipo de geometría que, de acuerdo con sus
características, es demasiado irregular para poder ser descripta mediante la geometría euclidiana tradicional,
es decir, posee mayor detalle en escalas arbitrariamente pequeñas. Generalmente, un fractal tiene una cierta
forma de autosemejanza, definido con formas muy simples, en su mayoría recursivas (de Spinadel, 2012, p. 15).
Sin embargo, en el caso de la naturaleza, cada forma es única, su orden no puede ser completamente previsto
por la matemática, lo que da como resultado fractales que solo pueden ser definidos mediante estructuras
emergentes y no lineales, de un modo aproximado.
159
Parte III. El punto de inflexión
En palabras de Mandelbrot: “Las nubes no son esferas, las montañas no
son conos, las líneas de las costas no son círculos, la corteza del árbol no es
lisa ni la trayectoria del relámpago es recta” (Jencks & Kropf, 2006, pp. 2-11).
La primera conexión desarrollada entre los fractales y la disciplina de la
arquitectura viene del mismo libro de Mandelbrot. En su introducción, el
matemático polaco mencionaba al arquitecto Mies van der Rohe como
el exponente de una geometría euclidiana autosemejante y aburrida, en
contraste con la arquitectura desarrollada por la Beaux Arts de París,
que a juicio de Mandelbrot presentaba criterios de autosimilitud, es decir, aspectos fractales. Un concepto de retroalimentación no lineal que
intenta rastrear y analizar diferentes caminos.
Con la popularización de los sistemas digitales, fue posible el estudio de
los fractales a partir de una serie de algoritmos recursivos desarrollados
mediante una computadora.
Uno de los primeros arquitectos en utilizar las teorías fractales en el
diseño fue el arquitecto estadounidense Peter Einsenman (1932) que,
en 1978, la utilizaría como un instrumento de análisis teórico-conceptual
para su proyecto House 11a.
Diseñando en un preciso espacio cartesiano, Eisenman utiliza elementos geométricos con forma de “L”, superponiéndolos unos sobre otros
hasta llegar a una fragmentación del espacio perceptivo.
Tiempo después, en 1996, el arquitecto estadounidense Daniel Libeskind (1946) desarrollaría un proyecto para la ampliación del Museo Victoria y Alberto, de Londres.
Fig. 6. House 11a. Eisenman utiliza
elementos geométricos con forma de
“L”, superponiéndolos unos sobre otros
160 hasta llegar a una fragmentación del
espacio perceptivo.
Una arquitectura fractal que rompía el paisaje ordenado del contexto:
desarrollado bajo una lógica matemática de la que surge del suelo una
tira plegada sobre sí misma en una espiral ascendente de seis capas.
Seis cajas que se empujan hasta penetrarse en un remolino complejo
de principios matemáticos.
Un modelo algorítmico elaborado a partir de una tecnología digital avanzada que posibilitaba la generación de un espacio libre de columnas.
Muros planos se interceptaban de acuerdo con encumbrados ángulos
calculados por el estudio del ingeniero Cecil Balmond.
La piel exterior se desarrollaba a partir de un patrón de mosaicos, una
geometría derivada de una proporción matemática fractal. Una especie de glaciar, fragmentos geométricos de orientación y tamaño variable
que contrastaban con las formas regulares del entorno.
En 1998, dos años después del proyecto de Libeskind, los arquitectos
suizos Jacques Herzog (1960) y Pierre de Meuron (1950) ganarían el
concurso para la construcción del Nuevo Muelle de Enlace de Santa
Cruz de Tenerife, en las Islas Canarias, España. Una respuesta innovadora que buscaba adaptarse al entorno, utilizando la geometría fractal
de una forma novedosa.
Marcelo A. Fraile - Arquitectura biodigital
A partir de una fotografía satelital del sitio, la cual fue ampliada hasta
su pixelación, desarrollaron un sistema geométrico de formas fractales
positivas y negativas, de llenos y vacíos, que posteriormente fueron utilizadas para desarrollar el proyecto.
Fig. 7. Ampliación del Museo Victoria 161
y Alberto, de Londres. Una arquitectu-
Una asociación entre topografía, fotografía e informática, con el fin de
configurar la morfología del edificio. Una búsqueda tectónica, un vínculo
inequívoco con el sitio desde la micro a la macro escala, a través de una
geometría tridimensional generada por computadora.
ge del suelo una tira plegada sobre sí
De este modo, el edificio se transformaba en un paisaje matemático-artificial: una manipulación digital que hace referencia a los píxeles ampliados de una pintura del artista pop Roy Lichenstein, ahora transformada
en una textura serigrafiada que reviste el edificio (Curtis, 2003, p. 19).
Un acercamiento a la naturaleza de un modo minimalista, una visión de
la arquitectura a través de una búsqueda que pretende convertir el “lápiz
de la naturaleza… en el lápiz de la arquitectura” (Kipnis, 1997, p. 15).
ra fractal que rompía el paisaje ordenado del contexto: desarrollado bajo
una lógica matemática de la que surmisma en una espiral ascendente de
seis capas.
Parte III. El punto de inflexión
Fig. 8. Nuevo Muelle de Enlace de
Santa Cruz de Tenerife. A partir de una
fotografía satelital del sitio, ampliada
hasta su pixelación, desarrollaron un
sistema geométrico de formas fractales positivas y negativas, que fueron
utilizadas para desarrollar el proyecto.
162
En la misma dirección que los proyectos anteriores, se encuentra el pabellón de la República de Corea para la exposición de Shanghái del
2010, diseñado por el estudio coreano Mass Studies (Minsuk Cho). Su
forma compone 20 letras básicas del alfabeto coreano: una fractalidad
del espacio donde los visitantes pueden experimentar un sinfín de sensaciones a lo largo de su recorrido.
En el exterior, su fachada fue texturizada a través de 40.000 paneles
píxeles artísticos de aluminio de 45 x 45 cm, diseñados por el artista coreano Kang Ik-Joong. Un muro masivo de arte sobre la base de azulejos
pintados a mano.
La fractalidad se intensifica en la planta baja, a través de un mapa
3D abstracto: una proyección sobre el suelo de imágenes de edificios y montañas de la Ciudad encogida 300 veces. Con el fin de
acentuar las sensaciones interiores, cada vez que los visitantes atraviesan ese canal de fotos virtuales, su imagen era proyectada sobre
Marcelo A. Fraile - Arquitectura biodigital
las paredes curvas del interior e incrementaba la desmaterialización
fractal del espacio.
Las perforaciones existentes en los muros interiores generan una serie
de luces y sombras dinámicas a lo largo del día y crean un mensaje de
texto reproducido a gran escala. Una geometría fractal que “… escapa a
la percepción directa… son algoritmos que solamente la computadora
puede trasladar a formas y estructuras” (Spinadel de et al., 2007).
Un contraste interesante lo planteaba el pabellón sueco, presentado también en la misma exposición. Diseñado por el estudio estadounidense Sueco bajo el tema sostenibilidad, innovación y comunicación. Se trata de 3000
metros cuadrados de aluminio y madera. Un cubo fragmentado a través de
una modulación algorítmica del espacio, en donde se superponían una
serie de líneas directrices a modo de cruce de caminos, una guía en diferentes direcciones que recuerda la estructura viaria de algunas ciudades.
Desde este punto de vista, estamos ante las aspiraciones de una nueva
arquitectura que no se limita a una copia formal de la naturaleza, sino
que, por el contrario, aspira a la aplicación de sus leyes. Un sistema complejo y articulado “…en una red de conexiones que los mantienen unidos
estableciendo su organización en una estructura funcional, tanto social
como morfológicamente” (Aresta, 2012, p. 21).
Caos y complejidad
En 1893, el matemático francés Jules Henri Poincaré (1854-1912) publicaba su trabajo “Science et Méthode” en donde desarrollaba sus investigaciones relacionadas con el comportamiento e interacción de tres
cuerpos celestes. En su modelo, Poincaré describía cómo una pequeña
perturbación en el estado inicial de un sistema podía conducir eventualmente a un estado completamente diferente de este. Una situación que
relativizaba los sistemas de medición ya que si estos no podían medir
esa variación, resultaría imposible determinar el estado final del sistema.
Fig. 9. Pabellón de la República de
Corea. Una geometría fractal que “…
escapa a la percepción directa… son
algoritmos que solamente la computadora puede trasladar a formas y estructuras”.
163
Parte III. El punto de inflexión
Fig. 10. Pabellón sueco. Un cubo fragmentado a través de una modulación
algorítmica del espacio.
Poincaré había utilizado ecuaciones de variación y sistemas dinámicos,
un sistema matemático no-lineal que le permitía resolver la primera configuración matemática de la teoría del caos.
Tiempo después, el matemático y meteorólogo estadounidense Edward
Lorenz (1917-2008) desarrollaría un modelo matemático simplificado de la
atmósfera que podría predecir su comportamiento en el tiempo. Al analizar
los resultados de los datos atmosféricos, Lorenz descubrió que pequeñas
alteraciones en las variables iniciales conducían a soluciones totalmente
diferentes. En su trabajo, Lorenz había utilizado una computadora a la cual
programó con ecuaciones no-lineales de 3 decimales, pero si en cambio
utilizaba 6 decimales, los resultados finales eran drásticamente diferentes,
haciendo imposible una previsión fidedigna en el tiempo.
En 1963, Lorenz publicaría su trabajo bajo el título “Deterministic
Nonperiodic Flow”, en donde exponía sus conclusiones sobre su teo-
164
ría: un sistema caótico no lineal y determinista, donde cada evento se
encuentra definido por el evento anterior, aunque en la generalidad
estos eventos puedan parecer aleatorios. Es un modelo sensible a las
condiciones iniciales.
Los sistemas caóticos exhiben irregularidades sostenidas, un sistema
recursivo de una serie de variables, presentando patrones que parecen
similares, aunque estos no se repiten con precisión: pequeños cambios
en las variables alteran el modelo completamente.
En un sistema caótico, el conjunto de fases o estados en los que se
presenta el fenómeno sensible que modifica las condiciones iniciales
Lorenz lo definió como “atractores extraños”: puntos de gran complejidad que alteran la trayectoria hacia las que suelen tender todas las
trayectorias normales.
Los atractores deterministas son regulares, matemáticamente son predecibles, y pasado un tiempo vuelven a retornar a su situación inicial, sea esta
un punto fijo, un ciclo o un conjunto de puntos. Sin embargo, existen otros
Marcelo A. Fraile - Arquitectura biodigital
atractores extraños que no tienen trayectorias únicas, que nunca se repiten, es decir son deterministas y caóticos
al mismo tiempo, estos se conocen con el nombre de “atractor de Lorenz”. En la naturaleza, estos atractores se
relacionan a fenómenos de gran complejidad como los producidos en los fenómenos de turbulencia.
Los hallazgos de Lorenz dieron por tierra con el universo cartesiano al relativizar y limitar las predicciones de
ciertos sistemas. Para el biólogo y astrónomo norteamericano James Gleick (1954), “la nueva ciencia, llamada
caos, ofrece un método para ver orden donde antes solo se observaba azar e irregularidad… enlazando especies inconexas de desorden” (2012, p. 2).
Sin embargo, las teorías de Lorenz serían olvidadas hasta 1977, fecha en que el físico estadounidense Joseph
Ford (1927-1995) y el profesor italiano Giulio Casati (1942) realizarían en la ciudad italiana de Como, el primer
Congreso de “una ciencia llamada caos”. A partir de entonces, las teorías del caos reaparecerían con gran
ímpetu aplicándose a diferentes campos del conocimiento.
Por su parte, la teoría de la complejidad podría ser considerada una subteoría de la teoría del caos. Su estudio, a diferencia de un sistema caótico, no puede ser determinista e imposibilita desarrollar siquiera modelos
teóricos: no se puede ni siquiera especular su resultado a partir de las variables iniciales.
La teoría de la complejidad es un sistema diverso, resultado de simples reglas que generan complejos resultados a través de la integración no simple de estos.
Para el sociólogo francés Edgar Morín (1921), existen siete principios básicos dentro del pensamiento complejo. Estos son: primero, el principio sistémico u organizativo: que se relaciona con el conocimiento de las
partes y del todo. Para comprender el todo se debe estudiar las partes, y viceversa. Segundo, el principio
holográmatico: en el que el todo está inscripto en las partes, como un reflejo.Tercero, el principio de bucle
retroactivo o retroalimentación: donde la causa actúa sobre el efecto y, a su vez, este sobre la causa. Cuarto,
el principio del bucle recursivo: donde se supera la noción de regulación, al incluir la autoproducción y la
autoorganización. Quinto, el principio de autonomía y dependencia: donde los individuos autoorganizados y
autorreproducidos son dependientes del medio (de su entorno). Sexto, el principio dialógico: una integración
de lo antagónico como así también de lo complementario en una realidad indisoluble. Séptimo, el principio
de reintroducción del sujeto: donde se introduce la incertidumbre en la elaboración del conocimiento; este
depende de la cultura y del tiempo determinado (1998).
La ciencia de la complejidad estudia los fenómenos del mundo en busca de modelos predictivos, dentro de
un contexto fluctuante, un equilibrio inestable. Una relación de elementos simples que se agrupan para generar entidades con un alto grado de complejidad. Un sistema ilimitado de relaciones entre sus partes y con el
165
medioambiente.
Un sistema complejo compuesto por elementos que interactúan entre sí en un sistema jerárquico de relaciones.
A finales del siglo XX, con la generalización de los sistemas digitales, el concepto de complejidad se fue integrando en todos los ámbitos del conocimiento. En el campo del diseño, las teorías del caos y de la complejidad
dieron lugar a modelos imprevisibles, con respuestas desproporcionadas y fragmentadas. Un concepto de
subsistemas que interactuaban entre sí pero de un modo simultáneo, superponiéndose a través de capas o
layer, para generar una arquitectura dinámica no lineal, de formas espiraladas, de volúmenes deformados que
cambian, se torsionan y se pliegan.
Una arquitectura computacional que resulta de la interacción de diversas variables, bajo una gramática formal
compleja íntimamente relacionada con la naturaleza.
En este sentido, uno de los ejemplos interesantes es Soft Office5 –del 2000, del estudio holandés NOX–, una
oficina para una productora de televisión inglesa especializada en el público joven.
5. Exposición “Architectures non standard”, celebrada en la Galería Sur del Centro Pompidou de París, entre diciembre
del 2003 y marzo del 2004, comisariada por Frédéric Migayrou.
Parte III. El punto de inflexión
Bajo el concepto de un espacio blando, que le permitiera entrelazar los
espacios de trabajo de los adultos con la zona de juego de los niños,
NOX exploraría dos técnicas contrapuestas: por un lado, indagaría en
la continuidad de filamentos horizontales que se entrelazan, cosen y superponen para generar una red compleja de circulaciones y conductos;
por el otro, trabajaría con el espacio perforándolo para generar un sinfín
de estructuras alveolares que transformarían finalmente ese espacio en
una estructura modelable, fluida y diáfana.
NOX se sirve de la tecnología para desarrollar una arquitectura orgánica
y flexible. Una arquitectura que oscila entre dos mundos: uno orgánico-biológico y otro metálico-electrónico.
Para esto, NOX retomó los experimentos de “‘form finding” desarrollados
por Frei Otto, elaborando una maqueta física con laca líquida y una red
de cordones plásticos. A continuación, la maqueta fue digitalizada, y el
modelo digital resultante pudo ser completado, deformado y corregido,
con el objetivo de generar finamente una estructura espacial optimizada.
Una composición perforada por innumerables alveolos y filamentos verticales y horizontales en perfecta continuidad.
El proyecto definitivo quedó dividido en tres zonas: la frontal, destinada
a los juegos infantiles; la central, de geometría variable destinada a las
oficinas; y la final, cuatro ramificaciones abiertas a modo de dedos con
vista a los jardines.
Otro ejemplo interesante sobre el trabajo con estructuras complejas,
Fig. 11. Soft Office. Una arquitectura que
oscila entre dos mundos: uno orgánico-
166 biológico y otro metálico-electrónico.
es la Casa Medusa o Jellyfish house, diseñada por el estudio estadounidense Iwamoto Scott Architecture en 2005. El proyecto se encuentra
ubicado en un terreno ganado al mar, más precisamente en la Isla del
Tesoro, una isla artificial construida fuera de la isla natural de Yerba
Buena, en el centro de la bahía de San Francisco. Concebida intentando semejar una creatura marina, la casa se vincula al entorno, adaptándose a las condiciones que la rodean.
El proyecto fue desarrollado a partir de una estructura matemática, una
piel mutable, elaborada sobre la base de una malla paramétrica que
utiliza para su generación una geometría eficiente de triangulación de
Delauney y de diagramas de Voronoi. Un diseño algorítmico donde las
aberturas se ubican dentro de una grilla topológica tridimensional. Una
composición compleja de partes deformadas visual, estructural y mecánicamente para adaptarse al diseño.
Cuatro años después, el estudio Iwamoto-Scott utilizó este tipo de sistemas para el proyecto de la Edgar Street Towers (2011, pp. 112-121),
a fin de evaluar el comportamiento de los materiales de acuerdo con
las conformaciones geométricas que la estructura adquiría. En caso
de que el diseño se alejara de las formas más adecuadas, el sistema
estaba diseñado para reconfigurarse a fin de adaptarse a las nuevas
tensiones de la superficie modificada, buscando que las fuerzas es-
Marcelo A. Fraile - Arquitectura biodigital
tructurales encontrasen el camino de menor resistencia hacia la tierra
a lo largo de cualquier superficie6.
Fig. Casa Medusa. Una estructura
matemática, una piel mutable, elaborada sobre la base de una malla
Finalmente, un diseño interesante relacionado con el caos y la complejidad en la arquitectura es la propuesta del 2012, para la catedral de
Nuestra Señora de Los Ángeles, de Xiaofeng Mei y Xiaotian Gao.
paramétrica que utiliza para su generación una geometría eficiente de
triangulación de Delauney y de diagramas de Voronoi.
Lejos de los ángulos de 90 grados, el edificio se encuentra inspirado en
formas biológicas, esqueletos, espinas y escamas de peces: una compleja forma geométrica que reinterpreta el concepto de espiritualidad.
Un ambiente complejo pero acogedor que permite a los creyentes reflexionar y meditar.
El camino hacia las complejas formas de la
biología
Significativamente, el final del siglo XX parecía querer sellar un período
marcado por una profunda ansiedad y un deseo irrefrenable de cambio,
que expresaba la fractura de un mundo acelerado e incierto, bajo un
flagrante alejamiento de los volúmenes discretos (Kolarevic, 2003b, pp.
17-45). Un nuevo escenario asoma en el horizonte, entre los fenómenos
contradictorios de volúmenes alabeados y una arquitectura monumental
con fuertes características comerciales.
Nuevas y complejas geometrías, curvas, continuas, fluidas y dinámicas
reemplazan las vetustas geometrías euclidianas. La planta deja de tener protagonismo y es reemplazada por una lógica generativa interna:
formas complejas, de inspiración orgánica, “‘fibrosas, acuosas, intermedias, ásperas, con huecos, ramificadas, como algas, extrañas, enmarañadas, tortuosas, contorneadas, delgadas, arrugadas‘” (Jencks & Kropf,
2006, pp. 2-11): una síntesis singular desarrollada a partir de un proceso no lineal, una deformación del espacio modelado mediante nuevas
6. Este tipo de trabajos llevó al descubrimiento y patentamiento de nuevos sistemas constructivos como el de una rejilla en diagonal de acero, que fue utilizada
en la construcción de The Gherkin (el Pepino) de Norman Foster.
167
Parte III. El punto de inflexión
168 Fig. 12. Catedral de Nuestra Señora
de Los Ángeles. El edificio se encuen-
herramientas tecnológico-digitales que se ajustan a los cambios de la
geometría para explorar la naturaleza.
tra inspirado en formas biológicas,
esqueletos, espinas y escamas de peces: una compleja forma geométrica
que reinterpreta el concepto de espiritualidad.
En el nuevo milenio, un nuevo método de pensamiento, con origen en lo tecnológico-digital, desafía las concepciones tradicionales del proyecto y se aparta de la geometría euclidiana y del
espacio cartesiano: la caja se había fragmentado, en su reemplazo surgía una nueva arquitectura, de conformaciones complejas, de excentricidades metafóricas, de geometrías topológicas, de superficies NURBS (Non-Uniform Rational B-Splines),
una arquitectura de cuatro dimensiones. Una arquitectura que
se manifiesta a través de la generación de un nuevo tipo de
espacios, nunca antes imaginados por el hombre. Son los aires
de los tiempos nuevos, un confuso paisaje en movimiento “…
brutal y delicado, de turbia violencia y belleza fugaz. En ese
ruedo convulso se representan las ceremonias crueles de las
postrimerías del siglo” (Fernández Galiano, 1999, pp. 78-79).
Marcelo A. Fraile - Arquitectura biodigital
Figuras
Fig. 1. Geometria Geometría Topológica. http://enredados.cl/wp-content/
uploads/2014/09/Topo1.jpg
Fig. 2. Blobwall Pabellón. https://arcspace.com/exhibition/blobwall-pavilion/
Fig. 3. Blobwall Pabellón. https://arcspace.com/exhibition/blobwall-pavilion/
Fig. 4. Villa Nurbs. http://www.ruiz-geli.com/projects/inprogress/villa-nurbs
Fig. 5. Museo Kunsthaus de Graz. http://www.plataformaarquitectura.cl/cl/02273005/museo-kunsthaus-graz-genera-su-propia-energia-en-base-a-panelessolares-dispuestos-en-su-superficie-curva
Fig. 6. House 11ª. https://www.facebook.com/217757261604275/photos/
pb.217757261604275.-2207520000.1473470881./1148868948493097/?type=3
&theater
Fig. 7. Ampliación del Museo Victoria y Alberto. https://www.archdaily.com/768565/
ad-classics-v-and-a-spiral-daniel-libeskind-plus-cecil-balmond
Fig. 8. Ampliación del puerto de Santa Cruz de Tenerife. http://www.
puertosdetenerife.org/index.php/es/tf-proyecto-plaza-de-espana#prettyPhoto
Fig. 9. Pabellón coreano. https://www.dezeen.com/2009/04/15/korean-pavilion-atexpo-2010-by-mass-studies/
Fig. 10. Pabellón sueco. http://www.tardeotemprano.net/swedish-pavilionshanghai-expo-2010/
Fig. 11. Soft Office, 2000. http://m.frac-centre.fr/_en/collection/art-and-architecturecollection/index-authors/authors/projects-317.html?authID=133&ensembleID=346
Fig. 12. Catedral de Nuestra Señora de Los Ángeles. http://www.formakers.eu/
project-250-xiaofeng-mei-xiaotian-gao-cathedral-of-our-lady-of-the-angels
169
Parte III. El punto de inflexión
170
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 5. LA ECOLOGÍA: CUANDO TODO ES VERDE
El hombre “… se ha comportado con el ecosistema natural del mismo modo irresponsable que un niño maleducado con una mascota: se entretiene con ella, la utiliza, la menosprecia y la maltrata”. (Garrido de, 2012, p. 14).
Desde la década de los años 60, la arquitectura se ha desarrollado bajo la errónea concepción de que los
recursos naturales eran para siempre: una cultura de consumo, con edificios climatizados de un modo artificial, bajo formas demasiado definidas, y un vocabulario abstracto, restringido y simplificado (Montaner,
2015, p. 108).
En el mundo contemporáneo, donde más de la mitad de la población habita en espacios urbanos, los problemas del medioambiente y la búsqueda de un desarrollo sostenible se han transformado en una preocupación
actual y constituyen un tema de constante vigencia en las agendas oficiales.
En este sentido, se hace necesario un cambio de enfoque, un giro copernicano capaz de producir una arquitectura
sostenible que incluya aquellos aspectos ecológicos y ambientales, pero teniendo presente los aspectos económicos para que los proyectos y las obras sean factibles y perdurables en el tiempo. Un lento, aunque gradual “‘enverdecimiento’ de la arquitectura” (Slessor, 1997, p. 13). Un sinnúmero de normas, reglamentos y procesos con “sello
ecológico” han comenzado a ser exigidos en países como Alemania, EEUU y Canadá.
La creciente preocupación por el medioambiente ha incrementado la necesidad de transformar los sistemas
de producción y consumo, en una búsqueda por optimizar los recursos a fin de que estos tiendan a ser más
efectivos y menos contaminantes. Nuevas estrategias apuntan a la conservación de la energía y el agua, la
reutilización de estructuras, y el uso de materiales “amigables” con un máximo ahorro energético y una baja
emisión de CO2 al ambiente. En este sentido, el concepto de sustentabilidad ha tenido gran repercusión en la
arquitectura de los últimos veinte años: por fin somos conscientes de que la naturaleza no es inagotable.
Sin embargo, en los últimos tiempos el uso indiscriminado y poco serio del término “sostenibilidad” para “…
cualquier edificio en el que se haya tenido en cuenta alguna mejora en relación con el medioambiente –desde la recogida de agua de lluvia hasta el ahorro en el gasto energético, pasando por el uso de materiales
‘ecológicos’–, [ha generado] …que ‘sostenibilidad’ pueda ser todo y no quiera decir nada” (Cuerda & García
Moreno, 2013).
El color verde es el color políticamente correcto del siglo XXI. Verde, eco, green parecen ser atributos que en
171
su sola esencia representan todo lo positivo de la sostenibilidad. El verde elimina las diferencias, “…los edificios verdes simplemente han de ser Verdes”. El verde “…permite que la sostenibilidad pueda comprarse por
metro cuadrado, puede pintarse en una pared, o pegarse a un muro. La sostenibilidad se añadirá a los filtros
de photoshop para la siguiente versión”: el verde “…puede ser plástico o pintado” (Ramo, 2010, p. 141). Para
la proyectista española Beatriz Ramo (1979), “los edificios Verdes pueden ser tinglados decorados o edificios
patos” (2010, p. 142).
Por su parte, el arquitecto Renzo Piano considera que “’es necesario que la arquitectura se comprometa con la
realidad, con las cuestiones técnicas, sociológicas y antropológicas de un tiempo y un lugar. Ese compromiso,
hoy en día, es la sostenibilidad’” (Miceli, 2016, p. 21).
Por el contrario, el biólogo francés Jacques Mond sostiene que “…por sus caracteres específicos, es decir, por
la relación entre estructuras, morfología y función, todos los productos de los seres vivos son objetos artificiales” (García, 2010, p. 147). Un razonamiento en donde Mond proponía “…una alianza entre el mundo animal
y humano, entre lo natural y lo artificial”, en un equilibrio integrador. Abandonando una actitud de protección
de la naturaleza, ya que esto implica “…una distancia entre hombre y naturaleza que ahora sabemos que no
existe, no debemos hablar de protección, sino de comprensión del correcto engranaje del juego de interac-
Parte III. El punto de inflexión
ciones general” (Moreno & Olivart, 2010, p. 171). Abordar interpretaciones parciales solo conducirá a obtener
resultados parciales.
El consumo de energías no renovables ha llegado a valores dramáticos: más de la mitad de la energía que
se consume en Europa es destinada al mantenimiento de edificios, siendo la mayor parte de esta generada a
partir del consumo de combustibles fósiles no renovables (Slessor, 1997, p. 12).
De acuerdo con la US Green Buinding Council (Consejo de la Construcción Verde de Estados Unidos), la
industria de la construcción es una de las principales responsables de consumir el 17% del agua potable, el
40% de la energía y el 25% de la madera, lo que produce cerca del 33% de la emisión de CO2.
Del high tech al eco-tech
Para mediados de la década del 90, una nueva arquitectura se manifestaba en el horizonte. Una evolución
de la arquitectura high tech de la década del setenta, hacia una sensibilidad por temas relacionados con la
energía, el entorno y la ecología: había nacido el eco-tech.
En este sentido, “…el eco-tech a diferencia de high-tech… ha pasado de glorificar irreflexivamente la tecnología a explotarla de forma selectiva para conseguir unos fines muy concretos” (Slessor, 1997, p. 7). Una búsqueda de respuestas válidas a las múltiples exigencias contemporáneas. Una exploración tecnológica, social y
arquitectónica, que continúa con la obsesión por la tecnología y la expresión estructural [pero] al mismo tiempo
se vuelve más ecológica” (Jencks, López-Manzanares, Chover, Navarro, & Arquitectura, 2004). Un sistema
tecnológico de control ambiental capaz de predecir “…las demandas de los usuarios del edificio y responder
de acuerdo con ellas” (Slessor, 1997, p. 7).
Richard Roger, Renzo Piano, Ken Yeang y Norman Foster compondrían a fines del siglo XX una corta lista de
arquitectos que exponían este nuevo modo de ver la arquitectura en relación con el medioambiente.
El primero de los proyectos fue la Nueva Terminal 4 de Transporte Aéreo del Aeropuerto Internacional Madrid-Barajas1, del 2004, diseñado por el arquitecto británico Richard Rogers (1933). Producto de un concurso
internacional convocado por AENA en 1997, el proyecto resultó ganador por sus características de “funcionalidad, atracción estética, admisión de cambios y ampliaciones futuras” (Sánchez Vidiella, 2011, pp. 16-23).
Con una gran utilización de la luz natural, su mayor logro reside en los materiales empleados, “basado en
parasoles de bambú y grandes claraboyas de vidrio, así como una cubierta exterior compuesta por una doble
camisa de aluminio, semejante a las alas extendidas de un pájaro” (Sánchez Vidiella, 2011, pp. 16-23).
172
Un proyecto diseñado de acuerdo a grandes exigencias energéticas posee un techo ondulado desarrollado
mediante un sistema de vigas metálicas, con una serie de láminas de bambú ignífugas, separadas de tal forma
que permiten la iluminación natural en los diferentes niveles del aeropuerto.
La fachada este-oeste está protegida por una serie de aleros profundos generados por la continuación del techo y que están encargados de proyectar distintas sombras a medida que cambia la posición del sol, mientras
que el desarrollo del aeropuerto reduce su impacto con el medioambiente al beneficiarse de su orientación
norte-sur. En los muelles se utilizó un sistema de bajo consumo, buscando generar un aeropuerto ecológico
en armonía con el entorno.
Con una visión ecológica del mundo, para Roger, “…las ciudades futuras pueden ser el trampolín para restaurar la armonía perdida entre la humanidad y su medio” (2015, pp. 11-12).
1. Este proyecto formó parte de la exposición “Richard Rogers + arquitectos. De la casa a la ciudad”. Caixa Forum Madrid,
del 9 de julio al 18 de octubre de 2009. La muestra original se había inaugurado en 2007 en el Centro Pompidou de París, luego en el Design Museum de Londres en 2008, y finalmente en el la Caixa Forum Barcelona del 2009, hasta llegar a Madrid.
Marcelo A. Fraile - Arquitectura biodigital
El segundo de los proyectos es el Centro Cultural Tjibaou2, diseñado
por el arquitecto italiano Renzo Piano (1937). Ubicado en Nouméa, fue
construido entre 1991 y 1998. Está dedicado a la memoria de Jean-Marie Tjibaou, una activista que luchó por los derechos de la comunidad
indígena originaria de Nueva Caledonia, Australia.
El proyecto inspirado en las cabañas de la tribu Kanak respeta la tradición y la cultura del lugar a través una serie de diez “casas” de planta circular agrupadas en tres villas, cada una con una función diferente pero
conectadas mediante un camino peatonal en forma de espina.
La altura de las cabañas en forma de peineta, varía entre los 20 y los 28
m, mientras que su planta oscila entre los 63 m2 las pequeñas, 95 m2 las
medianas y 140 m2 las grandes.
El proyecto aprovecha los vientos predominantes del océano Pacífico
para maximizar la ventilación natural en un clima húmedo.
173
Tanto la fachada exterior como la estructura de los pabellones están
construidos con madera de iroko, muy resistente a la putrefacción y los
insectos, y capaz de soportar la fuerza de los vientos de los ciclones. En
una segunda capa, se ubica un filtro de vidrio: una persiana de láminas
de vidrio que se abre o cierra y permite que el aire fluya a través de la
construcción.
Fig. 1. Nueva Terminal 4 de Transpor-
La doble piel del edificio posibilita filtrar el aire caliente hacia la parte
superior de la construcción, una función similar a la de una chimenea.
minas de bambú ignífugas, separadas
Una arquitectura que utiliza la historia como un material para construir, aprovechando los procesos de simulación por computadora, para explorar e inspirarse en nuevas formas, pero sin separarse de la historia y la tradición.
del aeropuerto.
2. La exposición Proyectos de Agua. Exposición Renzo Piano Building. Workshop Proyectos de Agua. Desarrollada en el Museo Naval de Pegli, Genova, entre
el 26 de septiembre y el 1 de noviembre de 2015. La exposición propone una
relación que vincula el agua con los proyectos de Renzo Piano.
te Aéreo del Aeropuerto Internacional
Madrid-Barajas. Un proyecto diseñado de acuerdo a grandes exigencias
energéticas posee un techo ondulado
desarrollado mediante un sistema de
vigas metálicas, con una serie de láde tal forma que permiten la iluminación natural en los diferentes niveles
Parte III. El punto de inflexión
El tercero de los proyectos es Editt Tower3, en la ciudad de Singapour, un
proyecto de 1998, diseñado por el arquitecto malayo Ken Yeang (1948),
reconocido internacionalmente por desarrollar una arquitectura verde.
Pionero en el diseño de elementos pasivos para el ahorro de energía en
los edificios, Yeang refuta la idea que considera que los edificios altos
contribuyen a la destrucción del medioambiente. Para esto, elabora un
nuevo concepto de edificio en altura, construido mediante materiales
reciclados con el fin de disminuir la huella ecológica. Una estructura de
26 pisos con características de granja verde, que posibilitaría a los propietarios cosechar sus propios alimentos.
El proyecto cuenta con una superficie de 855 m2 de paneles fotovoltaicos
para captación de energía solar, que le permitiría reducir cerca del 40%
de la demanda total de energía del edificio.
174
Fig. 2. Centro Cultural Tjibaou. El proyecto aprovecha los vientos predominantes del océano Pacífico para
maximizar la ventilación natural en
un clima húmedo. La doble piel del
edificio posibilita filtrar el aire caliente
hacia la parte superior de la construcción, una función similar a la de una
La forma de cada piso, posibilita que el edificio desarrolle grandes superficies verdes a la vez de facilitar la ventilación fluida en cada nivel.
Dada la alta frecuencia de lluvias de la ciudad, el edificio cuenta con un
depósito que facilita el almacenamiento del agua de lluvia para su posterior utilización en riego y en las descargas de los inodoros, con lo que
logra una eficiencia del 55%. Además, en el subsuelo, el edificio cuenta
con una planta de tratamiento de residuos sólidos, los cuales son transformados en biogás y fertilizante.
chimenea.
Para Yeang “Si se desea que las ecoestructuras sean aceptadas por
la gente, tienen que ser estéticamente bellas; el edificio verde ideal es
aquel que es ecomimético y se integra con el ambiente natural”.
3. La exposición “Hacia otras arquitecturas: 24 proyectos sostenibles” fue desarrollada por la Fundación Canal de Madrid, del 26 de mayo al 25 de julio del
2010. Una exposición de 24 trabajos de los representantes internacionales más
destacados en materia de arquitectura sostenible.
Marcelo A. Fraile - Arquitectura biodigital
Finalmente, el cuarto de los proyectos es 30 St Mary Axe4, de 1997. Ubicado en la ciudad de Londres, fue diseñado por el arquitecto británico Norman Foster (1935). Un proyecto que alberga la sede de Swiss Re. Se trata
del primer rascacielos ecológico de la ciudad de Londres, una arquitectura
sostenible que maneja las condiciones climáticas, hidrográficas y del ecosistema, para crear un catalizador entre el ambiente y el usuario. Inspirado
en la Climatroffice, un proyecto diseñado por Buckminster Fuller en 1971.
Con una altura de 180 metros, posee 41 plantas en una superficie de
76.400 m2.
Cada planta del edificio se realizó de forma circular y adquirió diferentes
dimensiones a lo largo de su altura, midiendo 40 metros en su base,
56,5 metros en su parte más ancha, hasta llegar a los 26,5 metros en el
último piso: 7 arcos tangenciales que conforman el perfil geométrico de
la estructura.
Un modelado digital, elaborado a partir del paquete de aplicaciones de
Microstation de Bentley, permitió desarrollar un diseño optimizado, donde la estética es el resultado de la aplicación de los criterios de rendimiento (Hwang, 2007, pp. 50-53).
La planta del edificio está formada por “un núcleo central rodeado por
un entramado de elementos triangulares de acero, interconectados en
diagonal” (Ortiz, 2012, pp. 129-130).
La estructura de soporte de la torre está consolidada mediante esta armadura exterior de acero, cuyas piezas fundamentales están formadas
por dos potentes V invertidas que tienen la altura de dos niveles: 18
piezas que componen cada anillo estructural, hasta configurar un total
de 19 anillos superpuestos.
4. La exposición “Foster + Partner. Architecture, Urbanism, Innovation”, desarrollada en el Mori Art Museum de Tokyo, del 1 de enero al 14 de febrero de 2016.
La primera exposición a gran escala sobre los trabajos del estudio londinense.
175
Fig. 3. Editt Tower, Singapour. La forma
de cada piso, posibilita que el edificio
desarrolle grandes superficies verdes
a la vez de facilitar la ventilación fluida
en cada nivel.
Parte III. El punto de inflexión
La grilla externa de la fachada está formada por 5500 paneles de triple
espesor (cristales dobles en el exterior y un cristal laminado en el interior), montados en la estructura, salvo en la cúpula. Esto permite optimizar el ingreso de luz solar sin eliminar las vistas, lo que lleva a reducir
hasta en 50% el consumo de energía (Ortiz, 2012, pp. 129-130).
En cada una de las plantas, se ubicaron seis pulmones que se repiten
en toda la altura del edificio y crean conductos de ventilación natural que
extraen el aire caliente en verano e inyectan calefacción en invierno.
Fig. 4. 30 St Mary Axe. La forma ae-
La forma aerodinámica del edificio “favorece el flujo de los vientos alrededor de la fachada, disminuye la presión sobre la estructura y evita que
dichos vientos se dirijan hacia el nivel del suelo, donde podrían perjudi-
rodinámica del edificio “favorece el
car a los peatones” (Ortiz, 2012, pp. 129-130).
flujo de los vientos alrededor de la fachada, disminuye la presión sobre la
estructura y evita que dichos vientos
176 se dirijan hacia el nivel del suelo, donde podrían perjudicar a los peatones”
(Ortiz, 2012, pp. 129-130).
Modelos de alta eficiencia
Con la irrupción de las cuestiones ambientales en el mundo contemporáneo, se ha presentado un nuevo enfoque en el pensamiento ecológico,
una toma de conciencia en el uso eficiente de los recursos naturales, lo
que reduce el consumo de energía y favorece el control de la contaminación. La introducción de fachadas verdes, cubiertas ecológicas, materiales
naturales, sumado a una fuente de energía renovable como puede ser la
radiación solar, el viento, el agua o la vegetación están transformando la
arquitectura en un nuevo ecosistema artificial “…mucho más eficiente que
el ecosistema natural con respecto a ciertos objetivos concretos. Dicho de
otro modo, el ecosistema artificial podría producir estructuras complejas
más eficaces, tanto desde un punto de vista energético, como funcional”
(Garrido de, 2012, p. 20).
En este sentido, las nuevas concepciones en el diseño entienden la arquitectura como un sistema complejo, que involucra las nuevas tecnologías digitales bajo un proceso de adaptación al ambiente que busca
generar un entorno saludable para las generaciones futuras.
Marcelo A. Fraile - Arquitectura biodigital
A través de una gestión eficiente de la energía y de los recursos naturales, algunos arquitectos contemporáneos se encuentran experimentando sobre conceptos innovadores en el proceso proyectual: geometrías
topológicas, herramientas paramétricas y nuevas plataformas digitales,
buscan desarrollar una arquitectura ecosustentable producida mediante
la hibridación de dos mundos: el real y el digital.
Una sensibilidad emergente de alta tecnología que explora las posibilidades de los sistemas digitales mediante patrones, proporciones, códigos y símbolos que estructuran la energía y permiten conservarla y
aprovecharla, libre de emisión de CO2.
Uno de los ejemplos representativos en esta línea de pensamiento son
las torres Al Bahr en Abu Dhabi, diseñadas en el 2009 por el estudio búlgaro Aedas que han demostrado cómo la tecnología puede ser entendida
como parte del proceso de diseño y no simplemente como una herramienta para su representación. Un nuevo modo de proyectación donde la
materia se ha convertido en información binaria, definida a través de un
modelo tridimensional.
Fig. 5. Las torres Al Bahr en Abu Dhabi. Una protección artificial móvil que
impide el sobrecalentamiento y resplandor sobre la fachada del edificio,
desarrollada a partir de una red de
patrones geométricos triangulares repetitivos, que conforma una trama tridimensional compleja y dinámica.
177
Parte III. El punto de inflexión
Una generación de nuevas herramientas que conciben el edificio como un sistema dinámico cambiante, perteneciente a un sistema mayor: un organismo que “…consume recursos, produce desechos y se relaciona de
manera sistémica con el entorno” (Miceli, 2016, p. 35).
Desde su concepción, los proyectistas elaboraron un diseño contextual y culturalmente sensible sin perder
por esto todas las nuevas posibilidades que les aportaba la tecnología, teniendo como referente a la naturaleza para alcanzar los estándares más altos de eficiencia energética, acorde con el clima y el entorno donde
se ubicaría.
Bajo una geometría simple, el estudio Aedas utilizó una serie de algoritmos paramétricos, a fin de indagar cuál
era la relación óptima entre el radio del edificio y la superficie exterior de la envolvente, buscando minimizar la
superficie expuesta a la radiación solar. Para ello, desarrollaron una pantalla parcial que cubriera exteriormente las caras directamente expuestas a la incidencia de los rayos del sol: un aprovechamiento pasivo entendido
como estrategia de captación, acumulación y distribución de la energía.
Inspirada en un elemento tradicional islámico, el mashrabiva5, desarrollaron una piel artificial de alta tecnología que sirve para difuminar la luz solar a lo largo de sus 25 pisos de altura. Una protección artificial móvil
que impide el sobrecalentamiento y resplandor sobre la fachada del edificio, desarrollada a partir de una red
de patrones geométricos triangulares repetitivos, que conforma una trama tridimensional compleja y dinámica. En su interior, una computadora controla la forma de estos triángulos en relación con los movimientos
del sol, abriéndose o cerrándose de acuerdo con la incidencia de la luz sobre estos. Las pantallas evitan el
sobrecalentamiento en el interior del edificio mediante la ventilación natural, sin detrimento de su iluminación.
Una directa analogía con el comportamiento de plantas nativas: la pantalla se transforma en una membrana
permeable que establece una relación simbiótica entre el interior y el exterior, reduciendo en 50 % el uso de
sistemas de acondicionamiento de los ambientes. Al llegar la noche, la pantalla se pliega y se guarda, y los
sistemas entran en hibernación hasta el día siguiente.
En la cubierta orientada al sur, una serie de células fotovoltaicas son las encargadas de producir energía
eléctrica renovable que entre otras cosas alimenta los mecanismos de funcionamiento de las membranas: un
edificio construido para obtener el máximo rendimiento con el mínimo impacto en el medioambiente.
178
Otro proyecto interesante al respecto, corresponde con el centro de investigaciones Hydra-Tesla, mejor conocido como Hydra Skyscraper. Un proyecto del estudio multidisciplinar de los arquitectos serbios Milos Vlastic,
Vuk Djordjevic, Ana Lazovic y Milica Stankovic, quienes obtuvieron una mención de honor en el concurso
internacional EVOLO del año 2011.
Inspirado en la hydra6, los diseñadores proyectaron un rascacielos cuya estructura está desarrollada a partir
del material de grafeno, elemento estructural básico de los alótropos de carbono. Los grafenos tienen una gran
conductividad térmica y eléctrica, y una dureza 200 veces superior al acero.
Conceptualmente, el edificio es como una gigantesca jaula de Faraday con tentáculos en su parte superior
que durante una tormenta eléctrica capta los rayos y conduce la energía hasta la base del edificio, donde es
almacenada en megabaterías. Finalmente, la energía es utilizada para producir hidrógeno a través de un proceso llamado “electrólisis del agua”, el cual divide la molécula de agua en O2 y H y utiliza este último como una
fuente de energía renovable y limpia necesaria para su funcionamiento.
Se trata de una nueva generación de edificios verdes que buscan reducir el impacto ambiental en el sitio bajo
un menor consumo de energía utilizada en calefacción, refrigeración e iluminación, sin sacrificar el confort ni
las actividades que allí se desarrollan. Edificios optimizados, con una mayor aislación de sus envolventes y
5. Elemento decorativo perforado, tradicional de la arquitectura árabe, generalmente construido en madera tallada de
reducida sección, utilizado como tamiz solar.
6. La hydra es un organismo de la familia de las phylum cnidaria, que vive en el agua dulce, posee una forma tubular de
simetría radial y una serie de tentáculos en uno de sus extremos con los que captura a sus presas.
Marcelo A. Fraile - Arquitectura biodigital
una regulación de sus actividades, a fin de proporcionar a los usuarios
ambientes con control de iluminación, temperatura y visuales.
Edificios con un uso eficaz del agua, con estrategias sustentables de
recolección, acumulación y reciclado de aguas grises y de lluvia.
Un nuevo referente, creador de una arquitectura marcada por un avanzado instrumental tecnológico-digital y un renovado interés en cuestiones
ambientales. En este sentido, es importante destacar que “la nueva tecnología no es opuesta a la naturaleza, sino, al contrario, podría decirse
que está creando una nueva especie de naturaleza” (Ito, 2009, p. 177).
Finalmente, un tercer proyecto que plantea una mirada renovadora a este
problema es el proyecto Asian Cairns, del 2013, del estudio Vincent Callebaut Architectures. Ubicado en el centro de una de las más grandes
Fig. 6. Hydra Skyscraper. Un rascacielos cuya estructura está desarrollada
a partir del material de grafeno, elemento estructural básico de los alótropos de carbono. Los grafenos tienen
una gran conductividad térmica y eléc-
metrópolis chinas del delta del río Perla, Shenzhen, el proyecto pretende
trica, y una dureza 200 veces superior
construir “…un prototipo de ciudad inteligente, verde, densa, conectada
al acero.
179
Parte III. El punto de inflexión
por los TIC y ecodiseñada a partir de las biotecnologías” (Callebaut, 2014,
pp. 52-71).
Para Callebaut, las actuales ciudades del mundo consumen cerca del
75% de la energía mundial y producen en el intercambio 80 % de emisión de CO2. El modelo urbano contemporáneo se puede resumir en
“…por un lado, consumir energía en exceso y producir a través de la
importación de riquezas y de recursos naturales; y por el otro, expedir
contaminación y residuos” (Callebaut, 2014, pp. 52-71).
Esto podría ser evitado a partir de la introducción del campo y los modelos de producción agrícola en el interior de las ciudades para generar
pulmones verdes, rascacielos-granjas, y estaciones de energía solar y
eólica. Un nuevo modelo que incorporaría los centros de producción alimenticia y energética dentro de la traza urbana, buscando de este modo
reducir la emisión de carbono entre 15 y 20%.
Para ello, el proyecto se conforma a partir de tres espirales entrelazadas, una alusión a los tres elementos básicos del universo: fuego, tierra
y agua, siendo el aire el nexo entre estos. Cada una de las espirales
envuelve dos torres y forma un ecosistema urbano que reintroduce la
biodiversidad dentro de la ciudad.
Para la forma de las torres, Callebaut se inspiraría en el amontonamiento artificial de piedras que se encuentra en las montañas como señalización del camino (cairns). Seis torres inscriptas dentro de un triángulo or-
Fig. 7. Asian Cairns. La fachada se
transforma en una piel inteligente, regenerativa y orgánica, donde los jardines no son piezas del edificio, son el
edificio mismo: una arquitectura cultivable, comestible y nutritiva.
180
ganizan el proyecto, superponiendo verticalmente una serie de espacios
agrícolas que serán cultivados por sus habitantes. Seis torres que reúnen en su interior viviendas, oficinas, espacios de ocio, y circulaciones,
superpuestos unos sobre otros a lo largo de un bulevar central vertical
que organiza el movimiento de personas, recursos y residuos.
Un apilamiento de bloques mixtos que transforman la ciudad en un nuevo
ecosistema, un ecobarrio densamente poblado. Una composición que na-
Marcelo A. Fraile - Arquitectura biodigital
turaliza los espacios públicos y privados, conforma grandes jardines suspendidos y favorece la producción de una biodiversidad orgánica y vertical.
Estructuralmente, el proyecto se desarrolla a partir de un anillo de acero
que se encierra alrededor de una doble cubierta horizontal. Los anillos
se unen a una estructura central mediante vigas Vierendeel para generar una planta en cruz que permite obtener un máximo de flexibilidad y
modulación espacial (Callebaut, 2014, pp. 52-71).
La fachada se transforma en una piel inteligente, regenerativa y orgánica, donde los jardines no son piezas del edificio, son el edificio mismo:
una arquitectura cultivable, comestible y nutritiva.
El proyecto busca disminuir la huella ecológica al reducir la necesidad de
medios de transporte y el consumo de combustibles fósiles; para esto, se
prevé el reciclaje de residuos orgánicos líquidos y sólidos y el desarrollo
de energía renovable, mediante una serie de células solares fotovoltaicas
y fototérmicas, y la ubicación de un bosque de aerogeneradores.
Un año después del proyecto Asian Cairns, Callebaut Architectures desarrollaría Hyperions, un proyecto para la ciudad de Nueva Delhi, India.
Iniciado en 2014, se espera que esté terminado para el 2020.
El proyecto toma su nombre del árbol Hyperion, uno de los más altos del
mundo, una Sequoia Sempervirens encontrada en el norte de California,
cuyo tamaño puede alcanzar 115,55 metros.
El programa prevé el desarrollo de un sistema de alimentos sustentables
en torno a seis torres-jardín, construidas con madera laminada cruzada
(CLT) originada de los bosques de Delhi. Cada torre contará con 36 pisos de altura, estará cubierta con jardines de huertos, y será destinada a
viviendas y oficinas, buscando una huella ambiental neutra. Un proyecto
sostenible cuyo objetivo es reducir la emisión de CO2 en un 40% (Callebaut, 2014, pp. 52-71).
Fig. 8. Hyperions. Cada torre contará
con 36 pisos de altura, estará cubierta
con jardines de huertos, y será destinada a viviendas y oficinas, buscando
una huella ambiental neutra. Un proyecto sostenible cuyo objetivo es reducir la emisión de CO2 en 40%.
181
Parte III. El punto de inflexión
La estructura fue resuelta a través de un sistema mixto: una subestructura de acero y hormigón para las cimentaciones, zonas de estacionamiento y bases verticales, resistentes a terremotos; y una superestructura
hecha de columnas, vigas y paredes de madera maciza, reforzada con hojas de acero en las columnas y vigas.
Cada componente estructural de madera laminada es colocado perpendicularmente entre sí, y es unido mediante clavos y aletas, o adhesivos estructurales orgánicos: 25 % de materiales inertes y 75 % de materiales
de origen biológico.
Una serie de farolas de viento producirán energía eléctrica, gracias a la levitación magnética de aerogeneradores de eje vertical (VAWTs) ubicados en sus soportes.
Las torres cuentan además con una serie de escamas de color azul: paneles fotovoltaicos y térmicos que rodean a
la fachada siguiendo el recorrido del sol.
Los balcones principales y las cúpulas de vidrio de los invernaderos también cuentan con este tipo de paneles,
encargados de prever climatización, agua caliente y energía eléctrica al sistema.
El proyecto asegura incluso la posibilidad de recargar vehículos eléctricos en tiempo real.
Detrás de las fachadas solares, se ubican los espacios flexibles, laboratorios, empresas, salas polivalentes y
servicios; en tanto que en el área de balcones, destinados a los diferentes departamentos, se prevé el cultivo
de alimentos a través de tecnología acuapónica.
Los diferentes espacios quedan unidos entre sí por medio de pasarelas, las cuales están cubiertas bajo un gran
techo verde destinado a huertos. Un espacio de encuentro que permite a los residentes moverse entre torres.
La ventilación se desarrolla a través de un flujo de aire natural cruzado. Para el riego se utiliza el agua de lluvia
y las aguas grises. El sistema prevé el reciclaje de residuos orgánicos, líquidos y sólidos.
Una mirada sustentable al mañana
A comienzos de este siglo XXI, los términos han mutado y cambiado, en algunos casos sus definiciones se hicieron menores y específicas, en otros globales y generales. Distintas generaciones de arquitectos han venido
experimentando desde “…la década de 1970, hasta los ecobarrios contemporáneos, pasando por propuestas
de arquitectura ecológica y tecnológica” (Montaner, 2015, p. 108).
182 El nuevo potencial de la tecnología ha sido un elemento clave, como fuerza propulsora del cambio. Para el arquitecto
Rogers, estamos ante un nuevo tipo de diseño que incorpora las nuevas tecnologías, rompiendo la antigua idea platónica de un mundo estático, expresado mediante objetos finitos perfectos a los que no puede añadírsele ni quitársele
nada. Un nuevo diseño interactivo que posibilita el desarrollo de estructuras, servicios, materiales y ecología para
crear una arquitectura que ofrezca una variedad mucho más amplia (Slessor, 1997, p. 7).
Un tipo de arquitectura versátil, estrechamente relacionada con el medioambiente, energéticamente autosuficiente. En su esencia aspira a ser una buena arquitectura, una solución a los problemas de su época, un
desplazamiento de las características ecológicas de nuestro mundo.
En este contexto, sería absurdo pretender que “el diseño salvará al mundo”; por el contrario, lo que se pretende
es producir un adecuado diseño de los elementos que componen nuestro entorno, a fin de mejorar nuestra
calidad de vida sin que esto genere un impacto nocivo en el medioambiente.
Es imperativo un cambio de mentalidad, en donde el diseño en la arquitectura no se conforme con la búsqueda
de un ahorro energético, el reciclaje de residuos, o la reducción de la contaminación; se requiere de nuevos
proyectos más ambiciosos, que busquen integrarse con el ambiente respondiendo a intereses sociales y a valores económicos aceptables como mecanismos que permitan mejorar la calidad de vida de sus ciudadanos.
Marcelo A. Fraile - Arquitectura biodigital
Una arquitectura autosuficiente que reemplace la arquitectura pesada y rígida por una nueva de materiales
moldeables, en equilibrio con los recursos propios y del entorno.
Una serie de formas definidas a través de sistemas digitales sobre las que se ha de operar indirectamente.
Para Cristina Díaz Moreno y Efrén García Grinda, son los jardineros digitales, “…los criadores de especies de
ceros y unos, [que] definen sus especies y trabajan sobre ellas a través de interfaces, en secuencias de líneas
y órdenes escritas” (Díaz Moreno & Garcia Grinda, 2009, p. 240). Una nueva arquitectura, de nuevos materiales, recubierta por una membrana, “…una epidermis flexible y suave, como nuestra piel, que nos proteja del
mundo exterior, permitiendo a través de sensores intercambiar información con este” (Ito, 2009, p. 181).
Figuras
Fig. 1. Nueva Terminal 4 de Transporte Aéreo del Aeropuerto Internacional Madrid-Barajas. https://www.rsh-p.com/
projects/t4-madrid-barajas-airport/
Fig. 2. Centro Cultura Tjibaou. https://www.archdaily.com/600641/ad-classics-centre-culturel-jean-marie-tjibaou-renzopiano/540e037dc07a808f0a000104-ad-classics-centre-culturel-jean-marie-tjibaou-renzo-piano-solar-diagram
Fig. 3. Editt Tower. https://www.plataformaarquitectura.cl/cl/02-11126/editt-tower-tr-hamzah-yang
Fig. 4. 30 St Mary Axe. https://www.fosterandpartners.com/es/projects/30-st-mary-axe/#gallery
Fig. 5. Torres Al Bahar. https://es.wikiarquitectura.com/index.php/Torres_Al_Bahar
Fig. 6. Hydra Skyscraper. http://www.evolo.us/competition/hydra-skyscraper/
Fig. 7. Asian Cairns. https://www.dezeen.com/2013/03/21/asian-cairns-by-vincent-callebaut/
Fig. 8. Hyperions. http://vincent.callebaut.org/object/160220_hyperions/hyperions/projects/user
183
Parte III. El punto de inflexión
184
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 6. LOS METADISEÑADORES
“El futuro cibernético soñado por el maquinismo del siglo
XX
no ha traído robots, sino la extensión del uso de
internet como herramienta de información y comunicación colectiva”. (Carpo, 2009, pp. 19-25).
Los diseñadores del nuevo paradigma
El siglo XX nos ha legado un mundo en crisis, dinámico y flexible, que ha convertido a los seres humanos en
una cibercultura; nuestra vida se ha complejizado como en ningún otro momento que la humanidad haya experimentado previamente.
Un mundo donde las relaciones entre ciencia, naturaleza y arquitectura se han modificado y han dado paso a
un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño, a través del uso
inteligente de las cualidades de los medios electrónicos.
Dentro de este marco, el diseño ha sufrido grandes transformaciones en el nuevo milenio. Su capacidad de
innovación, a través del uso de nuevas herramientas digitales, ha producido la evolución del trabajo de los proyectistas hacia derroteros irreconocibles, incluso en problemas convencionales: un modo diferente de pensar
los procesos de diseño que permite alcanzar nuevas soluciones.
Frente a este planteo, se exige el nacimiento de nuevos diseñadores: jóvenes investigadores abiertos a los
cambios, capaces de producir un nuevo vocabulario con nuevas herramientas, y que –con un enfoque interdisciplinario–, tratarán de engendrar nuevas teorías para resolver las nuevas anomalías, en una búsqueda
incesante de mayor eficiencia, optimizando los resultados, disolviendo las fronteras de la especificidad que
representan una renovación y ampliación de sus posibilidades.
A esta nueva generación de jóvenes creadores, el psicólogo americano Richard Farson (1926) los denominó
“metadiseñadores”: término que ha sido utilizado a través del tiempo para referirse a diferentes conceptos y
matices, pero que aquí es empleado con un sentido superador. El prefijo griego meta es aplicado como ‘sobre’,
un rango superior que el del diseño tradicional; sus protagonistas han evolucionado desde meros creadores a diligentes investigadores; reconocen el valor de los sistemas digitales, “…como una fuerza tecnológica autónoma, imposible de detener y que nos incluye a todos sin excepción” (Farson, 1995).
Para la doctora holandesa Elisa Giaccardi, presidenta de Diseño de medios interactivos de la Universidad Tec- 185
nológica de Delf, el origen de la palabra metadiseñador puede rastrearse dentro del campo del diseño industrial,
más precisamente en el diseñador holandés Andries Van Onck (1928): en 1965, Van Onck había viajado a Brasil
con el objeto de dar una serie de cursos titulados “Metadiseño”, en la Faculdade de Arquitetura e Urbanismo da
Universidade São Paulo y en la Federação das indústrias do Estado de São Paulo. Aprovechando la visita de Van
Onck, la revista “Produto e linguagem” de la ABDI (Associação Brasileira de Desenho Industrial) publicaría un artículo titulado “Metadesign” donde Van Onck definía el metadiseño como una metalengua que precede al proyecto
en particular, un diálogo general y abstracto. Utilizando los procesos de diseño de Antoni Gaudí, Max Bill y Gerrit
Rietveld, Van Onck lo describía como un “lenguaje visual formal” utilizado por cada diseñador (1965, pp. 27-31).
En el siglo XXI, el concepto de metadiseño se relaciona con los procesos de proyecto como una respuesta a los
cambios y transformaciones que tienen lugar en el mundo contemporáneo, y promueven una forma de diseño
fluida y colaborativa, bajo un replanteo de los límites y las metodologías (Teixeira De Almeida, 2014).
Los metadiseñadores contrastan con la excesiva especificidad de los diseñadores convencionales y su incapacidad para enfrentarse a los nuevos problemas del siglo XXI. Conciben el diseño integrado en un sistema que
da soporte a la inteligencia colectiva, lo que posibilita el trabajo en equipo para generar nuevas perspectivas en
Parte III. El punto de inflexión
el proyecto. Una concepción de la disciplina que, invadida por el pensamiento de otros campos, sobrepasa sus
límites tradicionales para indagar en sus bordes y amenaza el reformular la arquitectura en forma irreconocible;
un pensar desde fuera que fortalece la creatividad del diseñador y permite explorar múltiples oportunidades.
Con un enfoque social, estos profesionales contemporáneos requieren de un proceso de readaptación frente
a este nuevo contexto, a cambio ofrecen perspectivas más amplias de los modos y los criterios en que los
diseñadores trabajan.
En este sentido, Giaccardi considera que el metadiseño puede ser definido de tres posibles maneras: 1. “‘detrás / después’, que se refiere al diseño del diseño”, es decir el diseño del proceso de diseño; 2. “‘por’, diseñar
juntos”, bajo la modalidad de un diseño interdisciplinario y reflexivo; y 3. “‘entre’, añadiendo conceptos tales
como la interactividad y la cocreación” (Teixeira De Almeida, 2014). Conceptualmente, estas definiciones
no son contrapuestas, por el contrario “…no solo pueden coexistir, sino que parecen ser complementarias”
(Kalwill, 2008, pp. 130-132).
Por su parte, el teórico francés Paul Virilio (1932) considera que los diseñadores de la era industrial serán
relevados por los metadiseñadores, individuos neurológicamente mejor adaptados a los medios electrónicos
(1996, p. 111). Completa esta idea el doctor Ciao Vassão, de la Universidade São Paulo, que considera que
el concepto de metadiseño incluye las costumbres y el diálogo social, un “control sutil de los elementos sumergidos en la complejidad de este superorganismo que los teóricos y tecnólogos de emergencia sitúan en la
sociedad urbana contemporánea” (Vassão, 2010).
Estos metadiseñadores despliegan una mirada que va más allá de lo habitual, que utilizan la tecnología digital
como una herramienta generativa de formas con base en la naturaleza; toman prestada la teoría de la evolución por medio de la selección natural de Darwin (1871) para aplicarla al diseño y a la producción digital de
una “arquitectura viva”.
En este sentido, el epistemólogo evolutivo inglés Ken Fairclough considera que el metadiseño puede asimilarse bajo un carácter ecomimético donde a través del uso de las nuevas tecnologías sería posible imitar la
naturaleza de una manera eficaz, como una política de supervivencia a futuro (Teixeira De Almeida, 2014).
Desde este enfoque, el muro puede ser considerado como una membrana celular en un proceso continuo de
crecimiento selectivo, con un alto grado de adaptabilidad individual, capaz de automantenerse, de autorreproducirse y, potencialmente, de evolucionar.
186
A partir de un pensamiento analítico, los metadiseñadores se transforman en planificadores: adoptan y se apropian de una multiplicidad de herramientas tecnológico-digitales que integran otras disciplinas como la ingeniería
informática, pasando por la biología e incluso la pintura. El teórico de las artes digitales Gene Youngblood (1942)
considera el metadiseño como el nuevo modo en que las vanguardias se expresan (Sastre Domínguez, 2016, pp.
193-215). Es lo que el profesor Branco Kolarevic denomina master builder (maestro constructor), en referencia
al nuevo modo de producción arquitectónica que utiliza las herramientas CAD/CAM para desarrollar sus obras.
De manera análoga, el arquitecto chileno Diego Pinochet considera que la producción de estos proyectistas
“…no se limita solamente a una forma determinada, sino que pasan a diseñar sistemas, herramientas y el proceso integral del diseño, mediante el cual pueden producir MODELOS DE INFORMACIÓN, que incorporan la
variable constructiva desde el inicio del proceso” (Pinochet, 2009, p. 37 y ss.) hasta la obtención de resultados.
Para el profesor John Wood, esto se debe a que el metadiseño es cualitativamente diferente del diseño convencional porque es demasiado complejo para ser predictivo (2015): se requiere de ajustes constantes que
favorezcan la innovación, apoyados bajo una nueva gama de herramientas. Esta nueva escala de los instrumentos permite, según la doctora Elizabeth Sanders, una etapa superadora “…donde la intención es crear
algo que no se conoce de antemano”, explorar nuevas formas inspiradas en la naturaleza, que buscan dar
respuestas adecuadas a las características del contexto.
Marcelo A. Fraile - Arquitectura biodigital
A partir de lo antes enunciado, es posible identificar cuatro características, cuatro ejes que nos permitirán
definir con una mayor precisión a esta nueva generación de diseñadores. Estas son: la proyectación digital; los
colectivos arquitectónicos; el saber transdisciplinar y el artesano digital.
La proyectación digital
Como instrumento de proyectación, las computadoras han aportado a la visión convencional de la arquitectura más argumentos para pretender desarrollar formas nuevas, manteniendo un fuerte deseo de control y
legitimando la voluntad de situar a sus obras fuera del tiempo. Su utilización ha generado un nuevo diseño,
digital por naturaleza, en la que las geometrías complejas y sinuosas surgidas del mundo virtual en la pantalla
plantean una pretendida liberación de las formas y espacios mediante una construcción de redes y corrientes,
fluidas y transparentes, líquidas y dinámicas, a veces arbitrarias y generalmente poco relacionadas con el
contexto (Montaner, 2015, p. 22).
Para el arquitecto español Josep María Montaner (1954), el paso del dibujo de tablero al de la computadora
–de lo analógico a lo digital en la arquitectura–, ha sido tan crucial como la invención de la perspectiva durante
el Renacimiento (2015, p. 22).
Una arquitectura inspirada en formas naturales, con base en la matemática, en la biología y en la química.
Una propuesta de vanguardia donde las superficies “crecen” mediante la aplicación de teorías morfogenéticas. Formas que evolucionan en tres dimensiones mediante leyes que se atraen o repelen como resultado de
agentes ambientales, y generan patrones deseados, de acuerdo con parámetros ajustados por el diseñador.
Frente a este enfoque, es de comprender que estamos ante una nueva generación de diseñadores, los llamados “nativos digitales” quienes han comenzado ya a enseñar en las principales universidades del mundo y
han introducido los primeros estudios de diseño en los que el papel hace tiempo fue reemplazado por bits de
información.
Diseñadores emergentes, impulsados por un progreso científico, que han desarrollado importantes mutaciones hacia el mundo de los blobs, las formas complejas y los algoritmos paramétricos. Diseñadores editores,
capaces de modificar las leyes internas de los sistemas proyectados, alterar las cualidades estáticas de los
espacios perspectivicos, “borrando los límites entre lo animado y lo inanimado, entre el exterior y el interior,
entre aquí y allá, entre lo natural y lo artificial” (Prestinenza Puglisi, 2009).
En este sentido, para Montaner, “estaban más cerca en la manera de proyectar Andrea Palladio o Karl Freidrich 187
Schinkel y lo arquitectos modernos…, que todos ellos con relación a los arquitectos contemporáneos” (2015, p. 22).
De manera análoga, para el profesor estadounidense Nicholas Negroponte (1943), las computadoras actuarían
en el diseño como un ayudante cibernético, un catalizador de las creaciones arquitectónicas dentro de un mundo
computable y digital. Una guía que conduciría hacia el desarrollo de proyectos dinámicos, fluidos y orgánicos,
un modelo evolutivo que buscaba “…abarcar mayores zonas con menos materiales, a ir más rápido con menos
consumo de energía, y creando más productos y, por consiguiente, un tipo conservador de libertad con trabajo
menos arduo” (Jencks, 2000, p. 15).
Los colectivos arquitectónicos
Nos guste o no, somos parte de un mundo globalizado, en constante cambio y mutación, un proceso donde la inteligencia colectiva, a través de una participación digital, ha posibilitado una conectividad interactiva a escala mundial.
En este proceso, la web ha evolucionado desde las primeras tecnologías de información monodireccionales
hasta una red de información totalmente simétrica y bidireccional. Una nueva plataforma en la que la división
Parte III. El punto de inflexión
entre emisor y receptor, entre usuario y producto, ha desaparecido, “Puesto que ahora cada nodo de la red
puede ser al mismo tiempo receptor y emisor de información” (Carpo, 2009, pp. 19-25).
La introducción de la tecnología digital en el mundo contemporáneo ha transformado muchas de las disciplinas tradicionales del conocimiento. En arquitectura, la rápida inserción de los sistemas digitales y virtuales
ha modificado sustancialmente el modo de diseñar y de acercarse al proceso proyectual. El metadiseñador
encuentra en la red una herramienta apta para la exploración, el intercambio y la evolución de sus objetos: una
construcción sinérgica, como expresión de un nuevo lenguaje.
En este ámbito, la idea de “autor” poco a poco comienza a esfumarse, alejándose del modelo planteado por
Leon Battista Alberti (1404-1472) que afirmaba que las obras del intelecto, incluidas las obras de arquitectura,
tenían autor y un arquetipo que debían ser reproducidos idénticamente por quienes la ejecutasen; siendo reemplazada por la idea de “colectivo arquitectónico”, donde la identidad de sus creadores se diluye en favor de
una producción más seductora y anónima (Carpo, 2009, pp. 19-25).
Los nuevos diseñadores parecen resistir el concepto de autor individual en pos de una arquitectura colectiva,
virtual, vinculada a las tareas de diferentes profesionales y estudios, ubicados en distintos continentes, con
diferentes zonas horarias, lo cual facilita una rápida construcción de documentación y prototipado de objetos
y espacios (Maver, 2004, p. 11).
En este contexto técnico y cultural, el control del autor sobre la obra proyectada solo podría ser muy leve, y en
definitiva la propiedad del diseño original podría llevar a confusiones o, en el peor de los casos, a perderse con el
tiempo.
En consecuencia, la figura del individuo autor fue reemplazada por un nuevo tipo de símbolo: “los colectivos
de arquitectura”, una plataforma participativa de integración digital que en cierta forma evoca los “… modo[s]
de construir colectivo[s] y a veces anónimo[s] habitual[es] en las obras medievales antes de la revolución humanista” (Carpo, 2009, pp. 19-25).
La palabra colectivo, de acuerdo al Diccionario de la Real Academia Española, proviene del latín collectīvus,
“perteneciente o relativo a una agrupación de individuos… un grupo unido por lazos profesionales, laborales,
etcétera” (RAE, Asale, 2014), es decir “una agrupación social donde sus integrantes comparten ciertas características o trabajan en conjunto por el cumplimiento de un objetivo común” (Perez Porto & Gardey, 2013).
Históricamente, el colectivo fue la estrategia que permitió a los individuos desamparados sobrevivir a su soledad,
188 lo que les posibilitó autoafirmarse como personas (Bauman, 1999, p. 38). El colectivo se organiza a partir de un
compromiso comunitario, un cambio de mentalidad que deja el “yo” para reemplazarlo por el “nosotros”: una conexión lejana con las vanguardias revolucionarias y el colectivo creativo de Tatlin (Fernández Galiano, 2012, p. 3).
El término colectivo comprende un amplio y complejo fenómeno, surgido en las primeras décadas del siglo
XXI, que identifica por lo general a grupos de jóvenes arquitectos y diseñadores, organizados para trabajar,
colaborar y aprender en conjunto, de un modo virtual.
Un modelo que rechaza la indiferente “arquitectura de autor”, patrocinada por arquitectos rockstars que buscan
su reconocimiento internacional a través de la expresión de sus deslumbrantes soluciones formales, “…construyen[do] sus propios horizontes teóricos dentro de los cuales colocarse” (Prestinenza Puglisi, 2009).
En contraposición, y bajo una voz anónima, los colectivos experimentan un nuevo modo de hacer arquitectura;
su función es la de producir y articular un proceso colectivo de creación, producción y gestión profesional en
forma conjunta, un intercambio, social, cultural, económico y político, enfocado en el progreso y la participación de las personas.
Marcelo A. Fraile - Arquitectura biodigital
Una nueva fórmula de gran éxito entre los arquitectos juniors “…que prefieren aprender por su cuenta lo que
otros esperan conocer trabajando en un estudio de prestigio” (Lacalle, 2010, p. 184).
Para el arquitecto español Andrés Jaque (1971), estas agrupaciones posibilitan la unión de jóvenes diseñadores con el fin de adquirir experiencia y compartir su banco de ideas en concursos de obras.
Profesionales radicalmente distintos de los diseñadores de la era mecanicista desarrollan sus proyectos bajo
un trabajo interdisciplinar, potencian la comparación y la confrontación, buscan expandir la profesión hacia
nuevos horizontes, reformulan los aspectos esenciales de la práctica del diseño y la generación de nuevas
plataformas para compartir sus experiencias disciplinares.
Independiente de su geografía, los colectivos pueden operar en cualquier entorno, sea este urbano o rural. Se
caracterizan por poseer una estructura absolutamente horizontal, abierta y participativa.
Para el filósofo y sociólogo francés Bruno Latour, estamos ante “la interconexión de una nueva clase de objeto
y sujeto” (Carpo, 2009, pp. 19-25). Un modelo cultural y profesional nuevo, propio de este tiempo, intensamente
influido por los imaginarios de la cultura digital (Estalella, 2015).
En este sentido, solo la red parece el medio indicado para resistir la complejidad de las relaciones, intereses y
resultados que se están formando. Una herramienta de pensar colectivo que se fue extendiendo por el mundo de
la misma manera en que los problemas económicos iban esparciéndose.
Uno de los colectivos más antiguos es Zuloark. Ganadores del concurso 2004 para estudiantes, organizado
por la revista “Quaderns”, para el diseño de 400.000 viviendas en tres localizaciones de Cataluña. El colectivo
cuenta con más de cuarenta personas entre arquitectos y estudiantes de arquitectura, con dos únicas condiciones para formar parte del grupo: en primer lugar, comprometerse a ser generoso con los conocimientos y
las habilidades que cada uno atesora; y en segundo lugar, asegurarse de acreditar la producción del grupo
únicamente a la marca corporativa Zuloark. Para este colectivo, la decisión la toma siempre el que en ese
momento está haciendo el trabajo. Si algo no te convence, ¡añádele algo más! No se trata de consensuar,
sino de encontrar fórmulas para desarrollar producciones singulares, y casi siempre individuales, que puedan
enlazarse con otras (Lacalle, 2010, p. 184).
Desde este punto de vista, hoy en día parece casi imposible considerar el trabajar en solitario. Para el profesor
Deen Kith Simonton, investigador de la Universidad de California, este nuevo fenómeno se debe a tres motivos principales: en primer lugar, a lo complejo que se ha convertido el conocimiento; en segundo lugar, a la
utilización en algunas áreas de investigación de grandes y costosos equipos experimentales; y finalmente en 189
tercer lugar, al alto grado de especialización al que se ha llegado en la ciencia (Lahoz-Beltra, 2004, pp. 28-35).
Sin embargo, con un espíritu crítico, el arquitecto español Carlos Lacalle, profesor de la Universitat Politècnica
de València, considera que en realidad no es que el “yo” haya desaparecido definitivamente, y ahora solo tenga
validez lo colectivo, quizás sea solo una manera contemporánea de eludir responsabilidades. Lo cierto es que
aún no están claros sus compromisos civiles, su encarnación unipersonal, su situación fiscal, o su oportunidad
de mercado: “Pero lo que no cabe duda es que sus webs, …tienen más visitas que las de la mayoría de los
grandes estudios. Y eso, en los tiempos que corren, algo debe significar” (Lacalle, 2010, p. 184).
El saber transdisciplinar
De acuerdo con el profesor William H Newell, la transdisciplina es la transformación e integración del conocimiento desde todas las perspectivas interesadas para definir y abordar problemas complejos”. (McDonell, 1998).
En 1944, el premio Nobel de física, el austriaco Erwin Schrödinger (1887-1961), publicaba “la dimensión física
de la célula viva” donde planteaba desde una óptica físico-química una serie de conceptos relacionados con
el campo de la biología.
Parte III. El punto de inflexión
Bajo un trasfondo teórico, su trabajo sentaba las bases de un nuevo
modo de reestructurar el conocimiento desde una perspectiva unificada.
Una investigación colaborativa, híbrida, con interacción disciplinar, que
cuestionaba el modo de pensar individual de la ciencia. Desde este punto de vista, la antigua mirada estática y determinista, heredada de las
ciencias clásicas, contrasta drásticamente con la complejidad que nos
proponen estos nuevos enfoques del mundo contemporáneo. Las prácticas proyectuales han debido cambiar para adecuarse a un contexto
mucho más confuso, donde intervienen un mayor número de variables
que precisan de diversos especialistas para su resolución.
En este sentido, es importante destacar que “Ya no se intenta reunir
distintos saberes, sino desdibujar sus límites para producir una lectura transversal” (Giménez, Miras, & Valentino, 2011, p. 19). Una nueva
posición donde conviven diseñadores, artistas, biólogos e ingenieros,
abordando los estudios digitales como herramientas para borrar las fronteras y producir solapes disciplinares. Tal como lo plantea el diseñador
mexicano Fernando Martín Juez, el pensamiento simple ya no es suficiente para resolver acabadamente los nuevos problemas de diseño, se
requiere de un pensamiento complejo que incluya nuevas estrategias y
un trabajo transdisciplinar (Martín Juez, 2002).
En consecuencia, el metadiseñador elabora un nuevo modo de trabajo
intelectual bajo un formato de interconexión, con una apertura a otros
saberes y conocimientos donde lo tecnológico, lo artístico, lo económico,
lo constructivo y lo digital se vinculan, influencian e interrelacionan, y
dan lugar a un nuevo tipo de arquitectura.
El artesano digital
De acuerdo al diccionario de la real academia española, la palabra
artesano deriva del vocablo italiana “artigiano”, y se refiere a aquella
“persona que ejercita un arte u oficio meramente mecánico. U. moFig. 1. Uno de los colectivos más anti-
190 guos es Zuloark. Ganadores del con-
curso 2004 para estudiantes, organizado por la revista “Quaderns”, para el
diseño de 400.000 viviendas en tres
localizaciones de Cataluña.
dernamente para referirse a quien hace por su cuenta objetos de uso
doméstico imprimiéndoles un sello personal, a diferencia del obrero
fabril” (RAE, Asale, 2014).
La gran herencia de la Revolución Industrial fue la pérdida de control de
los procesos de fabricación que transformó al artesano en un obrero encargado de hacer únicamente tareas repetitivas de partes. El paradigma
mecanicista había mudado al artesano “de ese taller en el hogar o cerca
de él, para hacerlo ir lejos, a un espacio mucho más grande, a una nave
industrial” (Rodríguez De Las Heras, 2016).
Sin embargo, con la llegada del siglo XXI, una nueva tecnología se abría
camino en un mundo digital en evolución, y aquello que habíamos dado
por perdido a causa de los avances de la sociedad mecanicista reapareció
para sorpresa nuestra y nos exige reinterpretarlo a la luz de este nuevo
contexto (Rodríguez De Las Heras, 2016).
Un mundo artificial binario se ha asociado con la fabricación asistida por
computadora para dar paso a una nueva generación de artesanos, ahora
Marcelo A. Fraile - Arquitectura biodigital
digitales, que han borrado la frontera trazada por el “paradigma albertiano” que dividía la obra intelectual de lo
puramente mecánico: “…puesto que la línea que separa el diseño de la producción puede cruzarse actualmente
a voluntad y en ambas direcciones, sin apenas coste” (Carpo, 2009, pp. 19-25).
Un cambio conceptual en la forma de entender la producción que, en lugar de trabajar con materiales como
la arcilla, la madera o el hierro, aplican sus habilidades a un material compuesto por ceros y unos (Rodríguez
De Las Heras, 2016). En este sentido, para el empresario estadounidense Avi Reichental, la tecnología digital,
más que conectarnos con el futuro, supondrá una vuelta a la producción artesanal donde los objetos serán
producidos de un modo personalizado, a medida, y fabricados de un modo local en talleres propios (Garcimartin, 2014).
En poco tiempo, el diseñador ha pasado de la búsqueda de una integración vertical del CAD/CAM a una integración horizontal interactiva, en un esfuerzo por conectar a todos los agentes (humanos y tecnológicos) que
participan en las diferentes fases del proceso de diseño (Carpo, 2009, pp. 19-25).
De esta forma, el artesano digital se presenta como un trabajador libre, de tiempo flexibles y autónomo, poseedor de nuevas habilidades y capacidades programáticas para moldear la nueva materia prima compuesta
por ceros y unos.
Por su parte, el licenciado Antonio Rodríguez De Las Heras (1947), catedrático de la Universidad Carlos III de
Madrid, prefiere llamarlos “estilitas digitales”. En el pasado, los estilitas eran eremitas que vivían encima de
una columna, prescindiendo del espacio con el objeto de realizar su camino ascético; en tanto que “los estilitas digitales” habitan el espacio sin lugar, sin distancia y sin tiempo de la red, organizan su vida desde esas
posibilidades espacio-temporales y miran el mundo desde esa liberación (2016).
Una evolución del diseñador, de una posición estable y poco dinámica hacia una hibridación acelerada que, a
partir de la información física, digital y técnica, es generador de nuevos medios de producción, nuevos materiales y nuevos espacios (Dollens & Planella, 2002, p. 21).
Mediante esta tecnología interactiva, se ha producido un sorprendente salto creativo que permite que las
obras puedan reproducirse mediante copias en serie, idénticas o diferenciadas. Las tecnologías digitales han
vuelto a unir el proyecto de la producción, algo que el paradigma mecanicista había separado. Una nueva
forma de participación en el proyecto donde el metadiseñador –mediante la aplicación de toda una gama de
nuevas herramientas, y de acuerdo a un catálogo de infinitas versiones o variaciones de un objeto–, podrá
decidir qué formas emergentes serán las más apropiadas para utilizar (Dunn & Casasnovas, 2012, p. 120).
Para el licenciado en Derecho, el español Juanjo Caba, existe una relación directa entre la forma de entender el
trabajo del artesano digital y la “Ética Hacker”: en ambos casos, las tareas “se realiza[n] con pasión, con independencia, con libertad, con interés. Busca[n] la adaptabilidad, pero no solo del trabajador al puesto de trabajo, sino
también del puesto de trabajo a las características y circunstancias de la persona que lo realiza” (Caba, 2016).
Es un cambio conceptual en la forma de entender las nuevas relaciones laborales en el mundo contemporáneo.
Un espíritu de vanguardia que responde a las variaciones apenas perceptibles por la sociedad presente; un
modo de actuar que busca la creación de nuevos medios y formas de expresión, a través de un sistema y un
lenguaje renovado (Zátonyi, 2011, p. 73).
Un diseño solo accesible para aquellos que cuentan con la tecnología y la formación adecuada, dispuestos a
romper con la tradición y, a partir de esto, desarrollar y materializar sus propios diseños, un proceso “…do it
yourself” (hazlo tú mismo).
191
Parte III. El punto de inflexión
Las jóvenes promesas
Hoy parece imposible concebir un mundo sin computadoras. La cultura digital se ha introducido en el mundo
contemporáneo y en el ejercicio profesional de la disciplina; ha eliminado los pasos intermedios y ha hecho
que el propio diseñador sea el responsable de la idea y de la materialización del proyecto.
En muy poco tiempo, las computadoras han sustituido los tableros de dibujo, pasando de representar el espacio, a configurarlo y finalmente a materializarlo. En este sentido, para el arquitecto suizo Gerhard Schimitt
(1953), decano de la Facultad de Arquitectura de Zurich, el diseño asistido por computadora ha permitido
enriquecer el entorno construido al proporcionar los mejores instrumentos y métodos para la creación de una
nueva arquitectura (1999, p. 5).
Los nuevos diseñadores han abandonado las plantas y secciones en favor de modelos tridimensionales donde es posible imaginar cualquier espacio, una evolución de la arquitectura virtual, capaz de ser observada,
recorrida, experimentada. Una arquitectura que en su fabricación recurre a componentes prefabricados, coordinados y ensamblados, para desarrollar una construcción de precisión milimétrica donde las medidas y las
proporciones están pensadas en términos digitales, bajo un control riguroso de su geometría.
De igual modo, el mercado laboral también ha cambiado: las nuevas generaciones de arquitectos son plenamente conscientes de la necesidad de adquirir constantemente conocimientos profundos, relacionados con el
manejo del software durante el proyecto arquitectónico.
En consecuencia, la figura del arquitecto en términos de “productor de objetos” ha cambiado hacia el concepto
de “estratega de procesos”. Ahora no se trata de diseñar la forma, sino de propiciar las reglas del juego; los
procesos son ahora los que importan (López Fernández, 2009, p. 87).
En este sentido, dos miradas se cuestionan el paso de lo digital en la profesión del diseñador. Para algunos, el
debate se encuentra entre quienes consideran que estas nuevas tecnologías están cambiando el modo en que
se generan los procesos proyectuales, al modificar el punto de vista de la disciplina y generar nuevas formas
y nuevos sistemas digitales, a este grupo pertenece el chileno Pedro Alonso o el americano Karl Chu (1950),
quienes consideran lo digital no como un cuerpo monolítico de conceptos y saberes, sino más bien como un
campo de batalla en el que confluyen una multiplicidad de discursos que entran en disputa continuamente. Sin
embargo, para otros, lo verdaderamente revolucionario de lo digital se encuentra en su relación con la materialidad y el desarrollo de nuevos procesos de diseño y construcción, a este grupo pertenecen diseñadores como el
chileno Sergio Araya, o el ceilanés nacionalizado británico Cecil Balmond (1943), quienes utilizan lo digital para
192 cuestionar y en cierto sentido dar por superada la idea del proyecto, entendida esta como la composición de elementos conocidos de antemano y puestos en relación a partir de un conjunto fijo y cerrado de reglas y acciones,
una racionalización de formas complejas como una herramienta para la construcción (Mondragón, 2009, p. 8).
La disputa no ha sido zanjeada aún, tanto la multiplicidad de los campos de aplicación, como su doble enfoque
proyectual son un reflejo del estado de crisis contemporáneo.
El acceso a la tecnología digital ha supuesto un estímulo a través del cual dar inicio a una nueva revolución en
el seno mismo de la arquitectura, así como también un cambio gestáltico en la figura del diseñador que utiliza
estos nuevos instrumentos para proyectar. Previamente, será necesario reconocer en la computadora y en la
tecnología digital los méritos de una herramienta capaz de proyectar y materializar una arquitectura que hasta
hace muy poco tiempo resultaban impensables.
Figuras
Fig. 1. Colectivo Zuloark. https://www.plataformaarquitectura.cl/cl/tag/zuloark
Marcelo A. Fraile - Arquitectura biodigital
ANOMALÍA 7. EL DISEÑO PARAMÉTRICO
“El arquitecto debe ser un profeta… si no puede ver por lo menos diez años hacia delante, no lo llamen arquitecto”. (Sacriste, 2006).
De acuerdo al Diccionario de la Real Academia Española, la palabra paramétrico deriva del vocablo ‘parámetro’, un término procedente de la matemática que hace alusión a un “dato o factor que se toma como necesario
para analizar o valorar una situación”, una “variable [independiente] que, en una familia de elementos, sirve
para identificar cada uno de ellos mediante su valor numérico, [el cual puede ser modificado a voluntad]” (RAE,
Asale, 2014).
En este sentido, en un sistema paramétrico, un parámetro es aquella parte del sistema cuya alteración de
valores, cambios de estado y/o variaciones, provocarán modificaciones en el resultado obtenido por el sistema
al que pertenecen o influyen (Schieda, 2015a, p. 102).
Cuando todos los parámetros de un sistema poseen información, el sistema queda completamente definido
y se transforma en una instancia particular de ese sistema. Sin embargo, frente a cualquier cambio en los
parámetros iniciales, el sistema se redefinirá de acuerdo al nuevo estado paramétrico y producirá una nueva
instancia particular del sistema.
Para el arquitecto argentino Alejandro Schieda, en un sentido estricto, una plantilla de cálculo puede ser entendida como un sistema paramétrico: esta posee esencialmente celdas capaces de contener datos (parámetros
iniciales) y celdas con fórmulas (relaciones entre los parámetros). En cada modificación de los valores en las
celdas de datos, el sistema se ajustará de manera acorde y dará un nuevo resultado (2015b, pp. 11-15).
De la misma manera, en el caso del diseño paramétrico –a diferencia de los métodos tradicionales de diseño
digital–, los arquitectos, en lugar de dibujar la forma específica de cada elemento, diseñan un conjunto de
reglas y ecuaciones algorítmicas que les permita generar el proyecto y variar este en el tiempo, según sea
necesario. Es decir, en lugar de diseñar un objeto, los arquitectos están diseñando un conjunto de principios
codificados capaces de generar una familia de objetos posibles, dentro de límites determinados: un proceso
de generación “…cuyos elementos constituyentes no están determinados geométricamente, de un modo estático, sino por medio de variables cuyos valores se especifican en cada caso” (Orciuoli, 2011).
En este sentido, el diseño paramétrico es la abstracción de una idea traducida al lenguaje matemático: es
193
un proceso mediante el cual se manipula con precisión una cadena de parámetros, expresadas en variables, a través de una familia de algoritmos, que posibilitan explorar, modificar y resolver la forma de un objeto, en más de un resultado óptimo, de acuerdo con criterios establecidos previamente (Fraile, Piantanida,
& Minafro, 2016).
Cada vez que el diseñador asigna un valor diferente a esos parámetros, crea un nuevo objeto, una configuración o una estructura diferente. Esta situación lo convierte en una herramienta de gran potencial, lo que
constituye y define un nuevo marco teórico que permite introducir una racionalización constructiva desde el
inicio del proyecto.
Orígenes de los sistemas paramétricos
Si bien el diseño paramétrico suele parecer un concepto relativamente reciente, asociado frecuentemente con la
industria aeronáutica y automotriz, su uso en el campo del diseño puede rastrearse hasta incluso mediados del
siglo XIX.
Parte III. El punto de inflexión
Uno de los primeros arquitectos que utilizó los modelos paramétricos
para sus diseños fue el arquitecto catalán Antoni Gaudí (1852-1926).
Utilizando un modelo analógico dinámico de experimentación en escala
1:10.000 compuesto por cuerdas y bolsitas con perdigones, podía calcular las fuerzas de equilibrio de sus obras: los cordones se ordenaban en
una armadura estática equivalente a la estructura real del edificio, pero
invertida, y en los puntos adecuados colgaba las bolsitas con perdigones –con el peso proporcional que Gaudí, creía habrían de soportar los
arcos y los pilares– (Zerbst, 1991, pp. 114-115). Una maqueta polifunicular que podía descomponer los arcos y las bóvedas en sus catenarias
resultantes. Gaudí utilizó este sistema tanto en la Cripta de la Colonia
Güell (1898) como en el proyecto para la Sagrada Familia de Barcelona
(1882). Un nuevo modo de entender y hacer arquitectura. Un diseño inteligente que posibilitaba la combinación de múltiples variables en una
exploración dinámica de formas.
Posteriormente, en 1939, el arquitecto y urbanista italiano Luigi Walter
Moretti (1906-1973) acuñaría el término “arquitectura paramétrica”, para
referirse a una arquitectura donde las relaciones entre las dimensiones
dependen de varios parámetros (Tedeschi, 2014, pp. 15-30).
Moretti se había comprometido con el método científico que utiliza la
ciencia para solucionar los problemas complejos. En su proyecto de 1939
para el Estadio Olímpico en el Foro Mussolini, Moretti desarrolló un estudio sobre la distribución de los espectadores en el teatro, en función de
fórmulas para calcular las visuales, y elaboró un diseño en donde todos
los espectadores pudieran disfrutar del espectáculo. Un profundo estudio
Fig. 1. Antoni Gaudí, utilizando un
modelo analógico dinámico de experimentación en escala 1:10.000 compuesto por cuerdas y bolsitas con perdigones, podía calcular las fuerzas de
equilibrio de sus obras.
194
de 19 parámetros que evaluaba desde el ángulo de visión de los espectadores hasta la viabilidad económica del proyecto: la forma final se generó mediante el cálculo con isocurvas que intentaban optimizar las vistas
desde todas las posiciones en el estadio (Tedeschi, 2014, pp. 15-30).
En 1957 junto con el matemático italiano Bruno de Finetti (1906-1985),
Moretti funda el l’Istituto per la Ricerca Matematica e Operativa applicata all’Urbanistica (IRMOU. Instituto de Investigación Matemática y
Operacional aplicado al Urbanismo) para estudiar lo que él llamaba
“arquitectura paramétrica”, una nueva teoría que utilizaba la matemática
para el diseño urbano. Sus investigaciones se presentaron en 1960 en la
decimotercera Trienal de Milán (Milán exposición Triennale).
Para Moretti, la informática aplicada al diseño presentaba un enorme
potencial para el futuro. Entre 1960 y 1965, diseñó el complejo Watergate, lo que para algunos fue el primer trabajo significativo que utilizó
la computadora y los modelos paramétricos: una envolvente dinámica
capaz de generar un efecto cubista al ofrecer la visión simultaneas de
su fachada frontal y lateral.
En sus escritos el arquitecto italiano ponía de manifiesto la necesidad de
definir una nueva semántica para los espacios urbanos. Utilizando una
computadora alimentada mediante tarjetas perforadas, podía desarrollar
un modelo matemático en el que “Los parámetros y sus interrelaciones
Marcelo A. Fraile - Arquitectura biodigital
se [convertían] en… el código del nuevo lenguaje arquitectónico” (Tedeschi, 2014, pp. 15-30).
Otro antecedente importante del diseño paramétrico lo podemos rastrear en los inicios mismos del diseño asistido por computadora, más
precisamente en los trabajos de Ivan Sutherland en 1963 para su tesis
doctoral, donde “…proponía la primera interfaz gráfica de usuario, que
permitía al diseñador dibujar con el ordenador y aplicar cambios al diseño de forma paramétrica” (Dunn & Casasnovas, 2012, p. 54).
Lo concreto es que para la década de 1990, fecha en que el uso de la
computadora se había generalizado en los estudios de arquitectura, el
diseño paramétrico fue importado definitivamente dentro de la disciplina
proyectual y llevó a los diseñadores a descubrir nuevas formas, una reformulación de su teoría en relación con los procesos de producción (E.
Lyon, 2009, p. 49).
Hoy en día, su uso se ha extendido a todas las áreas de la disciplina,
desde el diseño de objetos hasta el de grandes extensiones de territorio,
y presenta una utilidad indescriptible en la generación de procedimientos teórico-metodológicos. Un sistema que, a diferencia de los sistemas
tradicionales, una vez establecido los parámetros iniciales, es posible
elaborar un sinnúmero de alternativas sin necesidad de generar nuevos
modelos, lo cual permite ahorrar tiempo y esfuerzo.
Los modelos paramétricos digitales como
configuradores del proyecto
En la última década, el diseño paramétrico se ha transformado en una
estrategia dentro del proyecto. Su objetivo clave es encontrar las variables o parámetros más relevantes del problema para desarrollar posteriormente un modelo “reconfigurable”, que permita una exploración “delimitada de múltiples soluciones”.
Fig. 2. Proyecto para el Estadio Olímpico en el Foro Mussolini. Moretti desarrolló un estudio sobre la distribución
de los espectadores en el teatro, en
función de fórmulas para calcular las
visuales, y elaboró un diseño en donde todos los espectadores pudieran
disfrutar del espectáculo.
195
Parte III. El punto de inflexión
En este sentido, a través del diseño paramétrico, los diseñadores pueden crear un número infinito de alternativas,
“…manifestaciones geométricas de un esquema previamente articulado de vínculos entre variables dimensionales, relacionales u operativas. Cuando a esas variables se les asignan valores específicos, se crean casos
particulares” (Kolarevic, 2003, pp. 17-45).
Tomemos un ejemplo, supongamos que tenemos que diseñar un edificio de oficinas de 10 pisos, resuelto mediante una estructura convencional de hormigón armado. Una vez desarrollado el proyecto, el cliente solicita
modificar la altura de los pisos 3, 5 y 7, e incrementar la sobrecarga de estos pisos aumentándola en 20%.
Si el proyecto desarrollado hubiera sido efectuado mediante un sistema tradicional, estas modificaciones tendrían un efecto en cadena sobre el resto del proyecto (altura de cielorraso, ancho de las columnas, sección de
armaduras, altura de luminarias, etc.), y obligaría al proyectista a modificar prácticamente todo lo elaborado.
Sin embargo, si el proyecto hubiera sido elaborado a través de un modelado paramétrico digital desde el
comienzo, las modificaciones anteriores podrían ser resueltas de un modo sencillo. Dado que el diseñador establece al inicio del proyecto los parámetros necesarios y las vinculaciones formales que tendrá el diseño, posteriormente, ante un cambio o alteración de los parámetros iniciales (en este caso la altura de los pisos 3, 5 y 7,
y el aumento de la sobrecarga en 20%), el sistema, en función de los nuevos datos ingresados, reconfiguraría
automáticamente la forma final del proyecto, pero manteniendo las relaciones geométrico-formales originales.
Un cambio de variables que genera un nuevo modelo donde las relaciones predeterminadas se mantienen: “…
al igual que una hoja de cálculo vuelve a calcular la totalidad de sus entradas” (Freiberger, 2007).
En el diseño paramétrico, se utilizan ecuaciones para describir la relación entre los objetos asociados. Cada
variable “…es un espacio al que se le puede asignar una influencia externa, ya sea de manera estática o dinámica” (Kolarevic, 2003, pp. 17-45)
Desde esta concepción, la arquitectura paramétrica se puede definir como un nuevo modo racional de entender el
proyecto y el diseño. A través del uso de las tecnologías digitales, es posible explorar nuevas soluciones sin repetir
procesos, trabajando con certezas, sobre resultados ciertos, dentro de las fronteras de lo virtual. Un modelo predictivo que permite organizar y optimizar las respuestas de acuerdo a las directrices establecidas por el diseñador.
Ventajas y desventajas de los sistemas paramétricos
196 Por supuesto, no existe magia en la informática; para que todo esto suceda hay un arduo trabajo de racionalización de los procesos de creación y generación de las formas arquitectónicas: previamente el diseñador
deberá establecer las relaciones entre las entidades geométricas y los parámetros que gobernarán el sistema,
una serie de protocolos que permitirán una interacción con el usuario, con el fin de dar un mayor número de
respuestas a las condicionantes establecidas inicialmente. De este modo, el diseñador ya no necesita acomodar cada uno de los elementos en forma independiente, son las ecuaciones las que describen “…las relaciones entre los objetos, definiendo así una geometría asociativa –la ‘geometría constituyente que se vincula
mutuamente’–” (Kolarevic, 2003, pp. 17-45).
Una circunferencia puede ser un ejemplo sencillo para clarificar estos conceptos. Matemática y geométricamente, cualquier circunferencia puede ser definida a través de dos parámetros básicos: su centro y su radio.
Ahora bien,“Una vez que se hayan especificado estas dos variables la circunferencia genérica pasa a ser una
circunferencia concreta situada en una posición determinada, en un contexto determinado y con un tamaño
determinado” (Orciuoli, 2011).
Pero también podemos, a través de un algoritmo paramétrico, diseñar un sistema que dibuje circunferencias,
por ejemplo, en el punto 0,0 con un radio creciente entre 1 y 10. A partir de esto, el sistema dibujará diez circunferencias concéntricas, con centro en el punto 0,0 con un radio que va desde 1 hasta 10.
Marcelo A. Fraile - Arquitectura biodigital
Para el arquitecto neozelandés Mark Burry (1957), el diseño paramétrico es “como diseñar el diseño” (2003,
pp. 147-162), esto implica definir las relaciones geométrico-matemáticas del modelo digital.
El diseño paramétrico no es un diseño final ni un proceso cerrado sin cambios, por el contrario, durante el
proyecto, los elementos pueden ser modificados para alterar la coherencia del conjunto.
En este sentido, el diseño paramétrico posee una exploración de variantes infinitas, donde el diseñador establece la interdependencia entre objetos y el comportamiento de estos bajo transformaciones definidas (Kolarevic, 2003, pp. 17-45), puede editar en cualquier momento los valores o las ecuaciones que forman las
relaciones entre los elementos, y detectar en tiempo real los cambios que se van incorporando al sistema.
Una tecnología, entendida como parte del proceso de diseño, donde la materia se ha convertido en información binaria y los modelos paramétricos quedan prefigurados como un sistema optimizador de variables,
capaces para desarrollar y testear hipótesis. En este sentido, es conveniente aclarar que “…no trata solo de
re-presentar (de dibujar algo ya presente) sino de prefigurar, de… proponer, [de] imaginar una transformación
de la realidad” (Chiarella et al., 2011).
Un sistema digital interactivo en el cual el diseñador se caracteriza por orientar el camino hacia las soluciones,
más que generarlas, definiendo condiciones y seleccionando resultados, un rango de posibles alternativas o
variables que respondan y se ajusten a los parámetros previamente definidos.
Sin embargo, no todos aceptan sus ventajas, algunos profesionales cuestionan su uso y critican la supuesta
falta de realidad presente en sus proyectos, donde teñidos de omnipotencia, los objetos parecen no respetar
las leyes de la gravedad, adquiriendo formas caprichosamente complejas que se superponen e interpenetran
sin una lógica clara. Proyectos quiméricos, con un alto contenido de irrealidad, incapaces de ser construidos,
que han legitimado aun la fantasía más descabellada.
No obstante, pese a sus críticas, el diseño paramétrico ha generado una profunda renovación en la arquitectura contemporánea. Una evolución en los modelos digitales donde “las formas dejaron de ser dibujadas o
representadas para pasar a ser calculadas” (Lynn, 2000).
Una exploración creativa de los sistemas digitales de creciente complejidad se ha convertido en el nuevo método que los arquitectos contemporáneos utilizan para hacer sus creaciones.
Un modelo predictivo que –a partir de la identificación, definición y evaluación de sus variables–, es capaz de
elaborar nuevas formas arquitectónicas. Un proceso de retroalimentación que puede interactuar en tiempo real 197
con el entorno, incorporar variables dinámicas, detectar sus fenómenos físicos más importantes (vientos, radiación solar, flujos peatonales y vehiculares, movimientos sísmicos, etc.) y posibilitar que el sistema organice
formas y establezca relaciones.
En este sentido, quizás uno de los más antiguos y acabados ejemplos del uso de algoritmos paramétricos en
el diseño sea el proyecto de 1993, para la Estación Terminal Internacional de Waterloo, en la ciudad de Londres, diseñada por el arquitecto británico Nicholas Grimshaw (1939).
Proyectada con una capacidad para manejar cerca de quince millones de viajeros anuales, se trata de una
innovadora resolución formal a un complejo conjunto de problemas.
Un sinuoso y acristalado túnel de 400 metros de largo, conformado mediante el trazado de cinco vías curvas,
que configura la estructura de un techo de luz variable y que transforma el edificio en una sofisticada pieza de
ingeniería. Una estructura compuesta por 36 arcos triarticulados, cuyas luces van disminuyendo gradualmente
desde los 48 metros en un extremo hasta los 32,5 metros en su punto más angosto.
Parte III. El punto de inflexión
198
Fig. 3. Estación Terminal Internacional
de Waterloo. Una estructura compuesta por 36 arcos triarticulados, cuyas
luces van disminuyendo gradualmente desde los 48 metros en un extremo
hasta los 32,5 metros en su punto más
angosto.
Cada arco está formado por dos partes curvas unidas mediante una
articulación, lo que posibilita que estos puedan adaptarse proporcionalmente a la relación entre la planta curva y la altura libre necesaria.
Dada la forma asimétrica de las plataformas, cada arco es único, es por
esto que las articulaciones son desplazadas a uno de sus lados, lo que se
traduce en que la parte del lado oeste se eleve abruptamente para dejar libre la altura necesaria para el paso de los trenes, mientras que la del lado
este, se inclina suavemente sobre los andenes (Slessor, 1997, p. 136).
Para el desarrollo del proyecto, se creó un modelo paramétrico digital
“…en base a reglas de diseño subyacentes en las que el tamaño de la
arcada y la curvatura de los arcos individuales estaban relacionados”
(Kolarevic, 2003, pp. 17-45). Un modelo capaz de desarrollar 36 arcos
diferentes, pero topológicamente idénticos, calculado para poder resistir
el colapso de cualquiera de estos en caso de algún accidente.
Marcelo A. Fraile - Arquitectura biodigital
Una generación de geometrías complejas e interdependientes en todas las etapas de su desarrollo, desde el
diseño conceptual hasta la construcción. Una combinación de paneles de vidrio y tableros de acero inoxidable
para generar una piel diseñada por computadora.
Parametricismo digital
Para el arquitecto alemán Patrick Schumacher (1961), estamos ante el nacimiento de un nuevo paradigma, un
período revolucionario de transición que ha penetrado en todos los aspectos de la disciplina. Es el inicio de
un nuevo estilo arquitectónico, “el parametricismo”: un ciclo de innovación, de la era postfordista que busca reformular el diseño para generar una arquitectura de vanguardia, capaz de crear complejos entornos urbanos.
Una arquitectura que demanda “…un creciente nivel de complejidad articulada mediante la redefinición de sus
métodos en base a sistemas de diseño paramétrico” (2008).
Bajo esta concepción, todos los elementos intervinientes en el diseño se convierten en variables paramétricas,
mutuamente adaptables. Un nuevo repertorio que modifica los términos actuales, facilitado por el desarrollo de
herramientas y programas scripts de diseños precisos y efectivos. Un proceso de “continua diferenciación”1,
una exploración creativa, resultado de un proceso de fuerzas que interactúan con el medio de un modo similar
a como lo hace la naturaleza. Un nuevo proceso de diseño caracterizado por cinco principios básicos que son:
1.
Interarticulación de subsistemas: reemplaza el concepto de sistemas simples por “…la asociación de múltiples subsistemas –envolvente, estructura, divisiones internas, recorridos–. La diferenciación de cualquier
sistema va seguida de la diferenciación de los otros sistemas”.
2. Acentuación paramétrica: realza una integración orgánica “…hacia intrincadas correlaciones que favorecen
una amplificada desviación antes que adaptaciones compensatorias… Esto incluiría la asignación deliberada
de umbrales y singularidades… para alcanzar una articulación más rica”.
3. Figuración paramétrica: una configuración compleja, latente y de múltiples lecturas, la cual puede ser
construida como un modelo paramétrico: un modelo desarrollado de modo que las variaciones de los
parámetros desencadenan cambios en la configuración percibida.
4. Sensibilidad paramétrica: “Los entornos urbanos y arquitectónicos (interiores) pueden ser diseñados con
una capacidad cinética que les permita reconfigurarse y adaptarse a los patrones predominantes de uso y
ocupación”. Un registro a tiempo real de los parámetros de uso. “El entorno construido adquiere una acción
199
responsable en diferentes escalas temporales”.
5. Urbanismo paramétrico: “…implica que la modulación sistemática de las morfologías edificatorias genera
poderosos efectos urbanos y facilita la orientación. El urbanismo paramétrico integraría la acentuación, la
figuración y las sensibilidades paramétricas”, en este sentido, “La deformación ya no habla de la ruptura
del orden sino de una ordenada estructura de información” (2008).
En esencia, el parametricismo implica un cambio ontológico en el que las figuras geométricas ideales son
reemplazadas por entidades animadas, dinámicas e interactivas, creadas mediante scripts. El parametricismo
rechaza la homogeneidad, las formas rígidas y las repeticiones simples que genera la producción en serie, y
el conjunto de elementos aislados, no vinculados; por oposición, busca una composición espacial compleja de
formas suaves, inteligentes, e interdependientes.
Bajo un programa estilo, desarrolla una serie de reglas metodológicas: las heurísticas negativas indican los
caminos que deben evitarse, las restricciones; en tanto que las heurísticas positivas plantean los caminos que
se deben seguir, los principios guías.
1. Principio atribuido a Greg Lynn y Jeff Kipnis, expresado a comienzo de la década de 1990.
Parte III. El punto de inflexión
Las heurísticas negativas son: “evitar las tipologías familiares, evitar los objetos platónicos/herméticos, evitar
la diferenciación clara de zonas/territorios, evitar la repetición, evitar líneas rectas, evitar ángulos rectos, evitar
esquinas… y lo más importante: no añadir o sustraer sin elaboradas interacciones”. (Schumacher, 2008).
El diseño paramétrico como potenciador de la materialización computacional
El diseño paramétrico posibilita la utilización de programaciones complejas lo suficientemente amplias como
para permitir “…la decodificación, manipulación y eventual reprogramación de los códigos de información” (Castells, 1996, p. 29). Un modelo inicial capaz de ser transformado al modificar los valores de sus variables primitivas, sin la necesidad de reemplazar o redefinir su geometría: soluciones diferentes para variables dependientes.
Para el arquitecto francés Bernard Cache, la nueva arquitectura de formas calculadas anuncia “…un punto de
quiebre disciplinar que obligaría a enfrentar el hecho de que las matemáticas se han vuelto, efectivamente, un
objeto de fabricación” (Alonso, 2009, p. 13).
Una coordinación de protocolos codificados; parámetros específicos; leyes de organización, agregación y crecimiento; con una fuerte influencia de cuestiones biológicas y ecológicas; una traducción digital hacia nuevos
caminos, “…manifestaciones geométricas de un esquema previamente articulado” (Kolarevic, 2003, pp. 1745), bajo una tendencia de cambio con infinitas posibilidades que ahora sí pueden ser materializadas.
En este sentido, un ejemplo interesante es el Pabellón Endesa, un prototipo solar autosuficiente instalado en
el muelle de la Marina de Barcelona. Diseñado por los arquitectos españoles Rodrigo Rubio (1978) y Miguel
Guerrero, del IAAC (Instituto de Arquitectura Avanzada de Cataluña), como parte del Congreso Internacional
Smart City BCN del 2011.
El proyecto fue elaborado a partir de una lógica paramétrica que permitía ir adaptando la geometría de cada
uno de los módulos de la fachada de acuerdo con el recorrido del sol a lo largo de las estaciones.
Un algoritmo definido bajo una relación geométrica entre el alto de la ventana, el vuelo del alerón y la orientación del panel solar ubicado sobre este, que permite dar diferentes respuestas geométricas, adaptadas a las
distintas orientaciones de cada punto (Rubio, 2015, pp. 30-35).
Un sistema que buscaba capitalizar los procesos de energía natural. De acuerdo con el recorrido solar, la fachada
200 se hacía más permeable al sur, protegiéndose con aleros grandes y horizontales, reduciéndose las aberturas
hacia el este y el oeste con protecciones más verticales, para finalmente hacerse plana y hermética hacia el norte.
Esto permitía que en verano el espacio interior quedara completamente protegido de la radiación solar, en tanto
que en invierno, la ganancia solar fuera constante (Rubio, 2015, pp. 30-35).
Constructivamente, el pabellón fue resuelto con un único componente: un marco de madera de pino, sobre
paneles de madera reconstituida cortados mediante máquinas de CNC. Un sistema que permitió su prefabricación en una semana, su ensamblado en cuatro días y su desmontaje en uno.
Otro caso interesante, es el pabellón temporal (C) Space, de 2007, para la Architectural Association de Londres. Diseñado por los arquitectos Alan Dempsey & Alvin Huang, ganadores del concurso anual organizado
por el Design Research Lab (AADRL).
Su compleja forma se basó en una curvatura continua y topológica de eficiencia estructural que envuelve al
individuo, y en la que los límites se van transformando en asiento, piso y cubierta, a fin de dar respuesta a las
actividades temporales que allí se desarrollan.
Marcelo A. Fraile - Arquitectura biodigital
Dada la trama estructural, producía en la superficie un fuerte contraste que
variaba entre opaco y transparente de acuerdo a la posición del observador.
Fig. 4. Pabellón Endesa. Constructivamente, el pabellón fue resuelto con un
único componente: un marco de ma-
El prototipo creado fue el resultado de un modelado paramétrico digital,
de 850 paneles de fibra C de 13 mm de espesor, compuestos de hormigón reforzado con fibra de vidrio tipo ‘Grasfibre’, fabricados mediante un
proceso de extrusión por la empresa estadounidense Rieder.
dera de pino, sobre paneles de ma-
Cada costilla fue cortada mediante máquinas de control numérico al
agua, y ensambladas a través de más de 2000 encajes resueltos con
juntas de neopreno y un empalme cruzado de clavijas, los cuales quedaban sujetos al doblar cada elemento de la unión.
y su desmontaje en uno.
En este sentido, el diseño paramétrico ha posibilitado la integración entre diseño, teoría y tecnología con el objetivo de lograr la solución más
eficaz al problema planteado: una interrelación productiva entre diseño
paramétrico y materialización constructiva (A. Lyon, 2009).
dera reconstituida cortados mediante
máquinas de CNC. Un sistema que
permitió su prefabricación en una semana, su ensamblado en cuatro días
201
Parte III. El punto de inflexión
Una evolución hacia una producción “no estándar”, personalizada, que
“…lejos de alejarnos de los procesos materiales, nos acerca más a ellos
de lo que estábamos en la gran industrialización del siglo pasado, aportando flexibilidad, crudeza y maleabilidad al proceso constructivo” (Rubio, 2015, pp. 30-35). Una tecnología que ha posibilitado recuperar el
papel del artesano como creador de piezas únicas: un control total que
facilita calcular y evaluar una producción seriada de piezas individuales.
Otro ejemplo interesante, es el estadio del Centro Deportivo de Hangzhou (Hangzhou Sport Park Stadium), situado en la orilla del río Qiantang, China. Diseñado en el 2009, por el estudio americano de arquitectura NBBJ en asociación con la compañía consultora de arquitectura
china CCDI. Con una capacidad para 80.000 personas y una superficie
de 400.000 metros cuadrados, el estadio de usos múltiples vincula en
tres niveles: los programas deportivos (parte superior), recreativos (planta baja) y comerciales (subsuelo).
A partir de la utilización de sistemas paramétricos, el estudio NBBJ pudo
modelar el proyecto y generar un diseño estable y optimizado, al eliminar
las etapas tradicionales de prueba y error.
202
Fig. 5. Pabellón temporal (C) Space.
Un modelado paramétrico digital, de
850 paneles de fibra C de 13 mm de
espesor, compuestos de hormigón
reforzado con fibra de vidrio tipo
‘Grasfibre’.
Para ello, un equipo multidisciplinario integrado por ingenieros, arquitectos
y especialistas en materiales buscaron maximizar el proyecto, a partir de
un algoritmo que les permitiera vincular diversas variables como el número de filas de asientos, la distancia al centro del campo, los estándares de
visión y los parámetros morfológico-ambientales de la envolvente.
Otro elemento fundamental durante el proyecto fue la elaboración de modelos de gravedad que posibilitaron realizar un análisis exhaustivo de la
ingeniería estructural, visualizando y cuantificando el comportamiento de
los materiales. Una herramienta de avanzada que permitió variar el diseño
y controlar la forma, estudiando diferentes configuraciones exteriores.
Finalmente, el estadio quedo conformado mediante 56 vigas modulares, denominadas pétalos: 28 módulos grandes, idénticos entre sí, que
crearon un patrón repetitivo y que encierran formalmente el estadio; y
Marcelo A. Fraile - Arquitectura biodigital
otros 28 módulos menores que se entrelazan para crear con el marco de
acero una estructura compleja.
Cada pétalo está conformado por una estructura de acero, recubierta en
una de sus caras por una placa de hormigón armado. Un sistema mixto
que permitía reducir el voladizo del techo y el uso de acero en 67%, a la
vez que maximizaba el rendimiento energético.
La morfología de los pétalos fue determinada de acuerdo con las visuales para favorecer el ingreso de luz indirecta por reflexión, a la vez que
proporcionaba protección contra el sol y la lluvia.
Fig. 6. Estadio del Centro Deportivo de
Hangzhou. 56 vigas modulares, deno-
Una tecnología que ha provocado nuevas respuestas creativas en el
minadas pétalos: 28 módulos grandes,
diseño, más allá de los requerimientos tradicionales.
idénticos entre sí, que crearon un pa-
Un nuevo panorama que hace pensar en lo que para algunos es el nacimiento de una tercera Revolución Industrial que tiene como protagonista un nuevo modo de materialización: un pasaje de la proyectación
paramétrica a la materialización digital.
trón repetitivo y que encierran formalmente el estadio; y otros 28 módulos
menores que se entrelazan para crear
con el marco de acero una estructura
compleja.
203
Parte III. El punto de inflexión
Apostillas para el siglo
XXI
Mientras que la computadora se incorpora cada vez más a nuestra vida, un nuevo paradigma parece emerger
entre las vanguardias del nuevo milenio. Modelos preparados para descifrar y reproducir la complejidad del
mundo a través del uso de herramientas digitales, capaces de adaptarse a todas las escalas factibles del problema, viabilizando la detección de anomalías, y sus posibles soluciones futuras.
En este sentido, el diseño convencional ya no es suficiente, sus procesos lineales desarrollados mediante tanteo y composición hasta el resultado final solo han dado lugar a diseños sin certezas, que revelan sus errores
una vez materializado el proyecto.
En contraposición, el diseño paramétrico se beneficia de las tecnologías informáticas para desarrollar nuevas
formas de proyectar, bajo un proceso continuo de adaptación donde diferentes elementos se superponen
como layer, atrapados en una relación diferencial: una comprobación instantánea de los resultados finales.
Un campo interdisciplinario donde arquitectos, ingenieros y especialistas colaboran y desarrollan modelos, no
estándares, bajo un proceso generativo que cuestiona la estaticidad proyectual de la arquitectura tradicional y
apunta a su capacidad creativa, transformadora y productiva.
El diseño paramétrico se transforma en un sistema abierto de retroalimentación constante que describe un
espectro de posibilidades en lugar de una solución definitiva. Una combinación de reglas y relaciones, “…que
solo tienen validez momentánea hasta que el próximo par de componentes permita redefinir ciertas relaciones
emergentes” (Araya, 2009, p. 21).
Para Bernard Cache, el mayor reto que deberá superar el diseño paramétrico es el de “…cambiar el concepto
mismo del proyecto de arquitectura… [pudiendo] inscribir el edificio en una tipología seriada cuya capacidad
de variación permitirá… responder, con más precisión a las necesidades específicas de cualquier implantación” (Cache, 2009, p. 35). Algo que para el arquitecto español Ion Cuervas produciría la participación ciudadana, donde todo el mundo podría ser capaz de diseñar su propia vivienda solo modificando algunos valores
iniciales. Una participación a escala urbana.
Figuras
204
Fig. 1. Modelo analógico dinámico de Gaudí. https://i.pinimg.com/736x/d1/eb/49/d1eb49a74813f6c0a8e77a6ccd428552gaudi-barcelona.jpg
Fig. 2. Proyecto para el Estadio Olímpico en el Foro Mussolini. http://www.stefano-andreani.com/portfolio/architetturaparametrica/
Fig. 3. Estación Terminal Internacional de Waterloo. https://grimshaw.global/projects/international-terminal-waterloo/
Fig. 4. Pabellón Endesa. https://www.plataformaarquitectura.cl/cl/627994/pabellon-endesa-margen-lab
Fig. 5. Pabellón temporal (C) Space. http://arquitecturaenred01.blogspot.com.ar/2009/08/case-study-cnc-cut.html
Fig. 6. Estadio del Centro Deportivo de Hangzhou. http://www.nbbj.com/work/hangzhou-stadium/
Marcelo A. Fraile - Arquitectura biodigital
UN EJEMPLO, OCHO ANOMALÍAS: EL MUSEO GUGGENHEIM DE BILBAO
“Son velas; soy marinero… Tengo un barco, ¿sabes? Me encanta navegar y me gustan muchísimo esos cuadros holandeses de veleros, pinturas holandesas del siglo dieciséis”. (Zaera, 1995, p. 31).
Para Fredy Massad (1966) y Alicia Guerrero Yeste (1974), con la materialización del Guggenheim, Gehry
marcó un punto de inflexión que cambió el siglo
XX
hacia el siglo
XXI,
al convertirse en el primer arquitecto
que, mediante la utilización de la tecnología digital, hizo posible la construcción de un edificio formalmente
complejo, que en caso de haber carecido de esa tecnología, habría resultado difícil o quizás imposible su
materialización (2003).
Gracias a la utilización de las computadoras y del software, fue posible controlar las complejas geometrías
del proyecto y los importantes costos que de su materialización derivaban. En este sentido, para el profesor
Sebastián García Núñez, sin CATIA (Computer-Aided Three dimensional Interactive Application) “…el museo
se hubiera quedado en meras intenciones de madera y cartón” (2016, pp. 39-46).
Las nuevas vanguardias arquitectónicas tomaron la inauguración del Museo Guggenheim en Bilbao, en 1997,
como un cambio de rumbo, nuevos aires que vaticinaban la entrada de la arquitectura en un nuevo paradigma
donde los pliegues, dobleces y avanzados materiales parecían dar nuevas respuestas a las anomalías de la
contemporaneidad. Muy pronto, el efecto Guggenheim, como lo llamó el arquitecto español Helio Piñón (1942),
impactó en la aparición de novedosas formas y contenidos (2005).
Para Branko Kolarevic, el Guggenheim de Bilbao “es probablemente el ejemplo mejor conocido de un edificio
que captura el Zeitgeist de la revolución de la información digital, cuyas consecuencias para la industria de la
construcción van a ser seguramente similares a las que comportó la revolución industrial” (2003, p. 3).
El concurso
Históricamente, la ciudad de Bilbao presenta una importante tradición metalúrgica e industrial; los astilleros,
las grúas y los almacenes han configurado su imagen.
Durante la década del ochenta, se produjo una fuerte crisis en España que dejó la zona industrial de la ciudad
de Bilbao con un panorama de contaminación y abandono.
Diez años después, a comienzos de los años noventa, comenzaron los primeros pasos de un ambicioso plan 205
de reconversión de la antigua zona industrial y de los almacenes obsoletos. Dos de las primeras intervenciones fueron la construcción del puente Zubizuri sobre el río Nervión, diseñado por el arquitecto español Santiago Calatrava (1951), y las líneas de Metro desarrolladas por el arquitecto británico Norman Foster (1935). El
museo Guggenheim de Bilbao forma parte de ese plan.
El Guggenheim es el resultado de una colaboración mixta entre la Administración del País Vasco, que realizó
una inversión pública para adquirir la franquicia y obtuvo una importante visibilidad; y de la Fundación Salomón
R. Guggenheim1, que organizaría y proveería al Museo de las obras de arte.
El edificio de Bilbao sería la primera sucursal del emblemático museo Guggenheim de Nueva York, es por esto
que tanto las autoridades vascas como los representantes de la Fundación Salomón R. Guggenheim buscaban
1. Solomon R. Guggenheim, nació en Filadelfia, Estados Unidos en 1861. Fue hijo de un inmigrante judío suizo, que amasó
una fortuna gracias a la comercialización de productos importados de su tierra natal. En 1904 se transformó en el presidente
de la firma Braden Copper Company que había fundado junto con sus seis hermanos. En 1919, se retiró de los negocios para
dedicarse a la colección de obras de arte, principalmente del renacimiento italiano. Tiempo después conoció a Hilla Rebay,
una joven alemana que orientó sus gustos sobre arte. En 1937, creó la Fundación Solomon R. Guggenheim para apoyar el
desarrollo y difusión del arte moderno. Con el tiempo, la Fundación Guggenheim requirió de un espacio para exhibir las colecciones permanentes y temporales. En 1959 se inauguraba el Museo Solomon R. Guggenheim, obra del arquitecto Frank
Lloyd Wright. Sin embargo, Solomon R. Guggenheim no lo pudo ver terminado, ya que había fallecido en New York en 1949.
Parte III. El punto de inflexión
Fig. 1. Las formas biológicas. Nuevos
un edificio “…singular e iconoclasta que, por un lado, repitiese el impacto
aires vaticinaban la entrada de la ar-
que supuso la construcción de la sede neoyorquina… y, por otro, se con-
quitectura en un nuevo paradigma
virtiese en un reclamo para las miradas del mundo de la cultura y sirviera
donde los pliegues, dobleces y avanzados materiales parecían dar nuevas
respuestas a las anomalías de la contemporaneidad.
206
de proyección internacional de la ciudad” (Cuito, 2001, p. 49).
El proyecto se inició con un concurso privado al que se invitaron a tres
arquitectos para que presentaran sus propuestas. Thomas Krens, director de la Salomón R. Guggenheim Foundation, sería el encargado
de seleccionar a estos arquitectos. Se buscaba “una visión global del
proyecto, en donde cada arquitecto tenía la libertad de entregar las propuestas utilizando los medios que consideraran necesarios para que
se hiciera evidente la influencia del nuevo edificio en el lugar” (García
Núñez, 2016, pp. 39-46). Finalmente, los arquitectos seleccionados fueron: Arata Isosaki (1931), como el representante asiático; Frank Gehry
(1929), como el representante americano; y al equipo vienés integrado
por Wolf D. Prix (1942) y Helmut Swiczinky (1944) de Coop Himmelblau,
como representante europeo.
Con solo diez días para desarrollar el proyecto, Gehry elaboró un borrador del programa del edificio y, a continuación, comenzó el proyecto
desarrollando una serie de maquetas conceptuales, una sucesión de
pruebas escultóricas de papel y cartón en las que el arquitecto moldeaba los espacios del modelo (García Núñez, 2016, pp. 39-46).
El proyecto inicial estaba constituido por un edificio principal, con elementos secundarios que se adosaban a este a modo de entrada a un
gran vestíbulo que partía de la Ciudad.
Para la presentación del proyecto, Gehry utilizó las maquetas desarrolladas los días 8, 9 y 10, como un intento por enseñarles la orientación que
el proyecto pretendía seguir (Zaera, 1995, p. 30).
Luego de extensas deliberaciones, en 1990, el jurado escogió el proyecto de Frank Gehry como la propuesta ganadora.
Marcelo A. Fraile - Arquitectura biodigital
Un riguroso programa de necesidades
Inicialmente, se pretendía rehabilitar el edificio de la Alhóndiga, sin embargo, al poco tiempo se hizo evidente que era imposible general un
buen diseño sin demoler prácticamente todo la construcción, dejando
solo su cáscara. Debido a esto, el comité del concurso encargó a Gehry
buscar un nuevo solar donde ubicar el proyecto.
El sitio elegido fue el centro de un triángulo formado por la Universidad,
el Ayuntamiento y el Museo de Bellas Artes. (Cuito, 2001, p. 26).
De fácil acceso desde los distritos financieros e históricos de la Ciudad,
el Museo se encuentra rodeado de un jardín acuático que armoniza el
conjunto y lo integra con el río, lo que crea una nueva plaza que organiza
la entrada al Museo y lo convierte en la puerta de entrada a la Ciudad.
Con increíble pragmatismo, el programa incluye un auditorio para 300
personas, un restaurante, un café y unas tiendas accesibles tanto desde
el interior como desde la plaza pública de acceso. Las oficinas administrativas se ubican en otro edificio, también con entrada independiente,
permitiendo de este modo una gran flexibilidad ya que estos espacios
pueden funcionar en forma independiente de los horarios del Museo.
Una vez dentro del museo, un atrio central acristalado, de gran escala2,
con grandes columnas en su interior, revela “…un sistema de pasarelas
curvilíneas, ascensores de cristal y torres de escaleras [que conectan]
las galerías dispuestas a su alrededor en tres niveles” (Levene & Márquez Cecilia, 1998, p. 32). Este espacio central distribuye a los visitantes
a través de las salas de exposición. Una danza azarosa, que combina
fragmentos del programa con la plasticidad de un artista.
De acuerdo a los requisitos solicitados por la Fundación Guggenheim, Gehry desarrolló tres tipos de zonas de exposición. La primera corresponde
2. Este atrio tiene una altura de 50 metros, 1,5 veces el atrio del museo Guggenheim de Nueva York.
Fig. 2. Proto-Metadiseñador. Conceptualmente, “Gehry cabalga a horcajadas sobre dos mundos de la arquitectura: el analógico y el digital”. No es
un nativo informático, sus proyectos
comienzan con maquetas físicas, modelos abstractos de gran escala, una
suerte de collage, compuestas rápidamente, semejantes a instantáneas tridimensionales destinadas a provocar
o retener una idea, más parecidas a
bocetos que a maquetas” (Dollens &
Planella, 2002, p. 30).
207
Parte III. El punto de inflexión
Fig. 3. Un atrio central acristalado, de
gran escala, es iluminado de un modo
natural, mediante grandes superficies
acristaladas.
Gehry realizó un profundo estudio de
la iluminación de las salas, con el objeto de crear una atmósfera cálida y
continua.
208
a la colección permanente que ocupa tres galerías consecutivas de forma cuadrada, desarrolladas en los niveles segundo y tercero; la segunda
corresponde a la colección de artistas vivos seleccionados, compuesta
por siete galerías con características espaciales particulares, estas salas
tienen una altura libre de entre 6 y 8 metros; finalmente, la colección de
exposiciones temporales ubicada en dirección este, por debajo del Puente
de la Salve, en una sala de 30 metros de ancho por 130 metros de largo,
que permite “…involucrar al puente como parte de la composición arquitectónica y que se remata en su extremo por una torre, un espacio diáfano,
sin pilares, que permite al museo exponer obras de arte contemporáneo
de gran tamaño, que normalmente suelen estar fuera del alcance de otros
museos convencionales” (Levene & Márquez Cecilia, 1995, p. 184).
Su compleja y escultural cubierta, realizada a través de un sistema reticular de 3 x 3 metros de acero, recuerda una flor metálica que por su
escala se destaca sobre la ría con su altura, superior a los cincuenta
metros, e ilumina el atrio a través de una serie de lucernarios (Levene &
Márquez Cecilia, 1998, p. 32).
Marcelo A. Fraile - Arquitectura biodigital
Ya que las obras de arte nunca deben recibir la luz natural de forma directa, Gehry realizó un profundo estudio de la iluminación de las salas,
con el objeto de crear una atmosfera cálida y continua. En una serie de
pliegues y alabeos, parece una especie de creatura “…emergiendo del
agua como un monstruo metálico de perfil inconfundible” (Fernández
Galiano, 1999, p. 74).
La biblioteca tiene varios niveles donde se guardan una amplia colección de libros de arte, en tanto que la sala de lectura pretende crear “…
un ambiente acorde con las sensaciones perceptivas de las áreas de
exposiciones” (Cuito, 2001, p. 117).
Todas las funciones auxiliares del Museo –carga, descarga, andamiaje,
almacenamiento y conservación–, fueron llevadas al sótano del Museo
lo que permitió que todas estas contaran con acceso independiente desde una calle de servicio.
Además, la funcionalidad del Museo fue pensada para facilitar su mantenimiento. “Un buen ejemplo de ello es la colocación de unos puentes colgantes
en el atrio central que facilitan el acceso a la parte interior de la fachada para
que puedan limpiarse los cristales sin dificultad” (Cuito, 2001, p. 138).
El Museo fue inaugurado oficialmente el 18 de octubre de 1997 e inició
un nuevo modo de hacer arquitectura.
La representación hibrida de la forma
Al introducir la computadora durante el proceso de diseño, Gehry buscaba un instrumento que le permitiera mantener el control sobre los
presupuestos de obra y resolver los complejos problemas geométricos
(Zaera, 1995, p. 152).
Su uso se encuentra relacionado con la materialidad, con la capacidad de
realizar un trabajo de fabricación más económico, suministrando al fabricante una documentación más precisa que cualquier documentación tradicional. Esto permitió un ahorro del 18 % del presupuesto original, pese
a que la estructura se había incrementado en dos millones. Esta situación
convenció a Gehry del valor de la computadora y marcó un hito en la historia de la construcción arquitectónica (Zaera, 1995, pp. 152-153).
209
Fig. 4. Su compleja y escultural forma,
recuerda una flor metálica que por su
escala se destaca sobre la ría con su
altura, superior a los cincuenta metros, e ilumina el atrio a través de una
Conceptualmente, “Gehry cabalga a horcajadas sobre dos mundos de
la arquitectura: el analógico y el digital”. No es un nativo informático,
sus proyectos comienzan con maquetas físicas, modelos abstractos
de gran escala, una suerte de collage, compuestas rápidamente, semejantes a instantáneas tridimensionales destinadas a provocar o retener una idea, más parecidas a bocetos que a maquetas” (Dollens &
Planella, 2002, p. 30).
Posteriormente, mediante la utilización de la tecnología de escáner 3D,
captura las características físicas superficiales de la maqueta. Para ello
Gehry utilizó una técnica conocida con el nombre de “Ingeniería Inversa”,
serie de lucernarios (Levene & Márquez Cecilia, 1998, p. 32).
Parte III. El punto de inflexión
Fig. 5. La representación digital. Gehry utilizó una técnica conocida con
el nombre de “Ingeniería Inversa”, que
consiste en el relevamiento de una serie de coordenadas tridimensionales
denominadas “nube de puntos”.
210
que consiste en el relevamiento de una serie de coordenadas tridimensionales denominadas “nube de puntos”3.
Para el arquitecto Tensho Takemori4, las personas malinterpretan el concepto de digitalización del modelo físico. Consideran que es algo mágico
por el cual se obtiene exactamente lo mismo. Sin embargo, el escáner
genera una nube de puntos que después un operador, a través de una
interfaz gráfica, deberá convertir en líneas, superficies y volúmenes, corrigiendo en el proceso anomalías para replicar finalmente el modelo
en 3D lo más cerca posible del modelo físico. Un sistema artesanal que
combina la parte física del modelo, con el modelo digital en tres dimensiones (Levene & Márquez Cecilia, 1995, p. 220).
3. Para este relevamiento, fue necesario un brazo digitalizador, un instrumento utilizado originalmente para fijar la herramienta láser durante una cirugía de
cerebro, pero ahora programado para escanear la superficie de una maqueta.
4. Takemori se unió a Gehry Partners en 1992, donde ha trabajado en proyectos
tales como el Museo Nacional de Arte de China, la expansión del Museo de diseño Vitra, la Residencia Lewis y la Sala de Conciertos Walt Disney.
Marcelo A. Fraile - Arquitectura biodigital
Al final del proceso, el dispositivo entrega una imagen raster en tres
dimensiones, imágenes magníficas, que pueden girar 360 grados, pero
inútiles para ser utilizadas en el campo de la arquitectura como objeto
proyectual (Zaera, 1995, p. 153).
Fig. 8. Globalización. El museo Gu-
A continuación, estos datos son introducidos en una computadora, a fin
tos “que llevarán el desarrollo de esta
de que un software de modelado, en este caso CATIA, permita procesar
la información y construir la geometría del edificio, al corregir y reem-
arquitectura más lejos, de una forma
plazar las anomalías en la superficie creada para obtener finalmente un
ggenheim ha transformado la arquitectura contemporánea, “esculpiendo
el espacio y abriendo las mentes” de
las nuevas generaciones de arquitec-
más barata, más arraigada y discreta”
(Dollens & Planella, 2002, p. 37).
modelo digital preciso del objeto.
Una de las ventajas de CATIA es que permitía desarrollar cortes transversales y longitudinales del modelo y facilitaba la elaboración de las
diferentes costillas del edificio: “en un modelo tridimensional en CATIA
se obtienen infinitas dimensiones, de forma que el constructor puede
averiguar cuál es la dimensión que más le conviene para el proceso de
fabricación” (Zaera, 1995, p. 155).
Cuando el modelo había alcanzado la geometría óptima, se comenzaba
su evaluación de acuerdo con las propiedades particulares del diseño,
por ejemplo, mediante la maqueta digital, los ingenieros podían analizar
el rendimiento estructural, térmico y acústico del Museo.
El equipo de Gehry había desarrollado un proceso de análisis del comportamiento de los materiales a partir de los colores que tomaban en el
modelo y lo transformó en una herramienta versátil para el diseño.
Y si bien CATIA poseía una salida que permitía exportar los archivos
para ser empleados en sistemas de CNC o de estereolitografía de objetos laminados, en ese momento su utilización no era rentable dado sus
altos costos. Se trataba de una tecnología aeroespacial, con lo cual su
uso fue limitado a las etapas finales del proyecto5.
5. Si bien el sistema CATIA optimizaba el proyecto, se trataba de un sistema
complicado y demasiado caro para la industria de la construcción. Por este motivo, Gehry crearía Gehry Tecnology y desarrollaría en 1994 una aplicación llamada Digital Proyect: un sistema basado en CATIA V5, al que se le agregaron
211
Parte III. El punto de inflexión
El proceso de ejecución
El edificio fue cubierto con 33.000 escamas de titanio y se transformó
en la primera obra de arquitectura que utilizaba este material para su
construcción.
Maleable, flexible y duradero, el titanio es un material resistente a la polución y a las agresiones climáticas.
Cada placa tiene un espesor de 0.3 mm, esto origina que, frente a la
acción de fuertes vientos, las placas sufran un pequeño alabeo, sin embargo, esto no constituye ningún problema estructural. Dado su alto coeficiente de reflexión de la luz, el titanio produce que la fachada cambie de
acuerdo al momento del día, evocando la materia prima que se empleaba en los antiguos edificios industriales: “…el museo aparece plateado
con los primeros rayos del sol; brillante, casi cegador, a mediodía, y
dorado al atardecer” (Cuito, 2001, p. 87).
212
Fig. 6. La nueva materialización. Para
el arquitecto americano Dennis Dollens, lo valioso de Gehry es que se
ha aprovechado de la tecnología del
momento y la ha fusionado con la sensibilidad de un arquitecto, artesano,
escultor y artista tradicional” (2002,
pp. 28-29).
Para Frank Gehry, la forma del edificio tiene como referencia “…la película Metrópolis de Fritz Lang, las esculturas de Brancusi y, sobre todo, el
propio vigor y la fuerza contenida que irradia la ciudad de Bilbao” (Cuito,
2001, p. 60).
El proyecto se compone de formas tensionadas por fuerzas internas, un
extraño artefacto distorsionado que apunta contra la racionalidad de un
modo desestabilizador. Una mutación que se adapta y evoluciona.
El edificio fue cubierto con 33.000 escamas de titanio y se transformó en
la primera obra de arquitectura que
utilizaba este material para su construcción.
una serie de herramientas para el modelado paramétrico de proyectos arquitectónicos. Cada estación costaba 15.000 dólares, un costo que lo convertía en
prohibitivo para la pequeña oficina. Por esta razón, el proyecto terminó siendo
un fracaso comercial. Finalmente, la empresa Dassault compró una parte del
proyecto para su comercialización. Poco tiempo después, el equipo de Digital
Proyect fue contratado para la elaboración del proyecto del edificio Opus para
Swire en Hong Kong. Un edificio de 80 pisos. A partir de la implementación de
Digital Proyect, durante el diseño, fue posible reducir en 12% los costos de construcción del edificio (Lynn, 2013).
Marcelo A. Fraile - Arquitectura biodigital
En este sentido, para el arquitecto americano Dennis Dollens (1950), lo
valioso de Gehry es que se ha aprovechado de la tecnología del momento y la ha fusionado con la sensibilidad de un arquitecto, artesano,
escultor y artista tradicional” (2002, pp. 28-29). El objeto deja de ser
arquitectura para transformarse en parte del contexto, es más una escenografía que una obra acabada (Bernardele, 1994, p. 201).
Fig. 7. Modelos paramétricos. Una de
las ventajas de CATIA es que permitía
desarrollar cortes transversales y longitudinales del modelo y facilitaba la
elaboración de las diferentes costillas
del edificio: “en un modelo tridimensional en CATIA se obtienen infinitas
dimensiones, de forma que el cons-
La singularidad intrínseca
Estrictamente hablando, el museo Guggenheim de Bilbao no puede ser
considerado totalmente digital, ya que su materialización fue resuelta
mediante una técnica análoga; a pesar de esto, el trabajo de Gehry puede ser considerado un punto de inflexión, al liberarse de las limitaciones
tradicionales de la arquitectura. Su proceso digital ponía en crisis “la
geometría cartesiana al hundirse, doblarse y plegarse sobre sí misma”,
pudiendo en el proceso elaborar, calcular y evaluar las complejas superficies que se desarrollaban en el Museo antes de su construcción
(Dollens & Planella, 2002, p. 30).
Para los profesores Julio Bermúdez y Roberto Hermanson, se trata de
una etapa híbrida que desafía la materialidad de la arquitectura convencional; da paso así a una interpretación líquida y flexible de la forma,
más asociada con la cultura de los medios y de lo virtual (1999, p. 10).
El museo Guggenheim ha transformado la arquitectura contemporánea,
“esculpiendo el espacio y abriendo las mentes” de las nuevas generaciones de arquitectos “que llevarán el desarrollo de esta arquitectura más
lejos, de una forma más barata, más arraigada y discreta” (Dollens &
Planella, 2002, p. 37).
tructor puede averiguar cuál es la dimensión que más le conviene para el
proceso de fabricación” (Zaera, 1995,
p. 155).
213
Parte III. El punto de inflexión
Figuras
Fig. 1. Las formas biológicas. https://www.guggenheim-bilbao.eus/el-edificio/
Fig. 2. Proto-metadiseñadores. https://www.guggenheim-bilbao.eus/el-edificio/
Fig. 3. La ecología. https://www.guggenheim-bilbao.eus/el-edificio/
Fig. 4. Su compleja y escultural forma. https://es.wikiarquitectura.com/edificio/guggenheim-bilbao/
Fig. 5. La nueva representación. Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis,
(Frank Gehry 1991-1995 74/75).
http://www.professionistiuniti.it/la-professione-di-architetto-in-europa/
http://www.cca.qc.ca/img/LaP9MEGz4mNk5lAt6Y0qFz3JoE4=/1920x0/9457/8508/Rick_Smith_AoD.jpg
Fig. 6. La nueva materialización. https://es.wikiarquitectura.com/edificio/guggenheim-bilbao/
Fig. 7. Modelos paramétricos. Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis (Frank
Gehry 1991-1995 74/75).
Fig. 8. Globalización. https://www.guggenheim-bilbao.eus/el-edificio/
214
Marcelo A. Fraile - Arquitectura biodigital
EL GÉNESIS BIOLÓGICO
El corto siglo XX1 fue considerado por investigadores y críticos de la talla
del historiador británico Eric Hobsbawm (1917-2012), como el siglo de la
física: una etapa en que la ciencia había transformado tanto el mundo
como nuestro conocimiento de este (1998, p. 522).
El paradigma mecanicista fue el modelo dominante. Bajo la idea de una
naturaleza ordenada y precisa, la biología era representada como una
maquinaria de reloj, donde los engranajes giraban y se articulaban entre
sí con total perfección.
El siglo
XX
se había enorgullecido de su larga lista de descubrimientos
teóricos como fuente de inspiración para el desarrollo de sus obras. Una
exaltación de los logros de la ciencia que, en esencia, representaban los
logros producidos por la mente del hombre.
Sin embargo, a finales de 1980, el contexto había cambiado. Como preparándose para el final, el corto siglo XX concluía estrepitosamente y
nos dejaba toda una serie de problemas e interrogantes sobre los cuales nadie tenía, ni pretendía tener, una solución (Hobsbawm, 1998, p.
516). Un profundo crecimiento científico-económico había proporcionado como subproductos el efecto invernadero, el calentamiento global, y
la emisión de gases nocivos a la atmosfera: problemas que se convertirían en la preocupación de especialistas, políticos y de las generaciones venideras.
Atrás quedaba ese hombre confiado y seguro del siglo XX, que no rendía
cuentas a nadie de sus actos. Frente a él, cubierto por una densa y espesa niebla, se perfilaba un nuevo camino, no muy claro, caracterizado
“…por una gran inseguridad, por una crisis permanente y por la ausencia de cualquier tipo de statu quo” (Hobsbawm, 1998, p. 551).
La lógica de lo líquido
En su libro Modernidad líquida (1999), el filósofo y ensayista polaco
Zygmunt Bauman (1925-2017) desarrollaría una analogía entre la sociedad del mundo contemporáneo y las propiedades físicas de los fluidos.
Para Bauman, el concepto de fluidez o liquidez es una metáfora adecuada para aprehender la naturaleza actual de la historia de la modernidad
(Bauman, 1999, p. 8).
Desde un punto de vista físico-químico, la fluidez es una cualidad de
los líquidos y de los gases, “…que ‘en descanso, no pueden sostener una fuerza tangencial o cortante’ y, por lo tanto, ‘sufren un continuo cambio de forma cuando se los somete a esa tensión’” (Bauman,
1999, p. 7). Es decir que los líquidos, a diferencia de los sólidos, no
1. Para Hobsbawm, el siglo XX corresponde a un período de 77 años, comprendido entre el comienzo de la primera Guerra Mundial (1914) y la caída de la Unión
Soviética (1991).
Fig. 1. Hobsbawn, E. (1994). Historia
del siglo XX. Buenos Aires: Grijalbo
Mondadori.
215
Parte IV. La génesis de un nuevo paradigma
conservan fácilmente su forma: para poder mantenerla requiere de mucha energía, mucho cuidado y vigilancia constante, pese a esto, su éxito no esta asegurado.
En esencia, el concepto de liquidez puede ser comparado con el de la levedad, propuesto en 1984 por el
escritor italiano Ítalo Calvino en su libro Seis propuestas para el próximo milenio: un pensamiento que “…
parece querer demostrar que el mundo se apoya en entidades sutilísimas, como los mensajes de DNA, los
impulsos de las neuronas, los quarks, los neutrinos errantes en el espacio desde el comienzo de los tiempos”
(2012, p. 20).
En esta analogía, la variable importante es el tiempo, donde los fluidos, bajo un fenómeno de levedad, presentan una tendencia a cambiar todo el tiempo, sin conservar su forma, ni fijarse al espacio; en tanto que los
sólidos han neutralizado el impacto del tiempo con una precisa dimensión espacial.
Siguiendo esta línea de razonamiento, al igual que lo que sucede con los líquidos, nuestra sociedad contemporánea encuentra en el espacio y en el tiempo las variables para discernir su comportamiento.
Estamos ante una sociedad de redes frágiles, vulnerables y transitorias, donde la precariedad de los vínculos
permite incrementar su fluidez. Una sociedad porosa, de nodos interconectados, carentes de un centro dominante, donde la levedad impide que exista lo eterno.
Con una mentalidad a corto plazo, todo se ha convertido en transitorio, instantáneo, se usa, se consume y
se tira. En la contemporaneidad, no se desarrollan afectos o compromisos por nada. El “hasta que la muerte
nos separe” ha sido reemplazado por situaciones transitorias de “mientras estemos satisfechos” (Bauman,
1999, p. 173).
Para el filósofo turco Cornelius Castoriadis (1922-1997), nuestra sociedad es poco proclive a la crítica, ha
dejado de cuestionarse a sí misma, “… ya no reconoce la alternativa de otra sociedad, y por lo tanto se considera absuelta del deber de examinar, demostrar, justificar (y más aún probar) la validez de sus presupuestos
explícitos o implicados” (Bauman, 1999, p. 28). Una lucha constante entre tiempo y espacio que nos conduciría
indefectiblemente a una licuefacción futura.
Es debido a esto que nos hemos transformado en una sociedad de consumidores, donde “…todo es a elección, salvo la compulsión a elegir, la compulsión que se convierte en adicción y que por lo tanto deja de percibirse como compulsión” (Bauman, 1999, p. 79).
216 En el mundo de la contemporaneidad, veloces máquinas conquistan el espacio, acortan las distancias y extienden las fronteras. Una velocidad bajo una aceleración creciente, capaz de producir profundas transformaciones políticas, económicas y sociales.
Una velocidad que impide tomar la suficiente distancia para reflexionar y pensar: la velocidad nos distrae al
conducirnos hacia un consumo veloz y excesivo de la información que dificulta la reflexión y el análisis que son
reemplazados por un pensamiento superficial y poco elaborado.
En este sentido, el fenómeno de la globalización ha incrementado la velocidad de los cambios: a través de
una revolución en los sistemas de transporte y comunicación, se ha alterado la concepción del tiempo y del
espacio. Un proceso vertiginoso que simula el estar patinando sobre hielo delgado, “…la seguridad radica en
la velocidad… no correr rápido implica la amenaza de ahogarse” (Bauman, 1999, p. 220).
En este mundo de la velocidad, los individuos se desenvuelven en lo que el filósofo y catedrático alemán Peter
Sloterdijk (1947) denominó “espacio burbuja”, espacios donde cada sujeto representa una burbuja que engloba
su mundo y sus relaciones; forman mapas de burbujas que, como una densa espuma, se distribuyen por el
sitio (Barrera Puigdollers, 2010, p. 74).
Marcelo A. Fraile - Arquitectura biodigital
No es de sorprender que este individuo del mundo de la velocidad sea “…un sujeto virtual acostumbrado a los
medios electrónicos y digitales, que se comunica sin presencialidad, mediante rastros informáticos y archivos
encriptados para su seguridad” (Barrera Puigdollers, 2010, p. 76). Un sujeto donde tan solo el 20% de su comunicación diaria es presencial.
En el mundo de la velocidad, la sociedad del panóptico de Foucault ha sido reemplazada por la sociedad de
las redes sociales. Espacios donde nuestros datos y nuestros recuerdos se comparten y se cuelgan en la
nube: nada es real hasta que haya sido publicado en facebook, twitter, Instagram o snapchat.
Para el sociólogo estadounidense Christopher Lasch (1932-1961), la vida contemporánea “…está tan completamente mediada por imágenes electrónicas que no podemos evitar responder a otros como si sus acciones…
fueran filmadas y transmitidas simultáneamente a un público invisible, o fueran a guardarse para ser vistas con
detenimiento más tarde” (Bauman, 1999, p. 91).
La velocidad también ha influido en la arquitectura al establecer una nueva percepción temporal de los espacios que generan nuevas relaciones y nuevas sensaciones.
La arquitectura de la velocidad no permanece demasiado tiempo; la idea del reemplazo ilimitado ha transformado la idea de perdurar como un disvalor. Influenciada por las leyes del mercado, la arquitectura ha entrado
en la cultura del “use y tire”, lo que reduce a veces su vida útil a la duración de una temporada.
El siglo biológico
A comienzos del siglo XXI, estamos ante el inicio de una nueva era, pero hace tiempo que hemos pasado el
punto de no retorno, un período de expectativas agotadas que nos ha conducido hacia un nuevo escenario,
cuyas anomalías nos anuncian un período de crisis y el nacimiento de un nuevo paradigma.
Bajo un complejo proceso de transformación, el mundo contemporáneo parece estar fragmentado en una
multiplicidad de capas,que en ocasiones se superponen, se mezclan e interactúan, para producir profundos
y acelerados cambios. Un nuevo momento histórico donde los modelos de ayer son incapaces de explicar las
transformaciones que se están produciendo. Nos encontramos en un paso intermedio entre dos orillas, con
una fuerte influencia científica donde la biología se ha perfilado como la ciencia del siglo XXI. Una biología que
emplea técnicas tomadas de la física, la química y la matemática, para traspasar las fronteras de la investigación y permitir la expansión del conocimiento.
En este sentido, tres grandes descubrimientos producirían una verdadera revolución de la sociedad contemporánea, algo que para el genetista británico Adrian Bird (1947), transformaría esta Era en “la edad de oro de
la biología”.
El primero de estos se produciría en 1953, de la mano del biólogo norteamericano James Watson (1928) y
del neurocientífico británico Francis Crick (1916-2004), al descubrir que el ADN se dispone en forma de una
hélice doble. Un modelo mecánico-químico tridimensional, que permite explicar el proceso mediante el cual se
produce “la copia de los genes”: “…uno de los logros científicos más importantes del siglo XX, equiparable a la
teoría de la relatividad de Einstein y a la desintegración del átomo” (Henderson, 2011, p. 38).
El segundo descubrimiento se realizaría en 1990, cuando un grupo de investigadores –financiado por diferentes gobiernos del mundo e instituciones benéficas–, desarrollaría el Proyecto Genoma Humano Internacional:
un programa que buscaba cartografiar y descifrar “…los 3.000 millones de pares bases en los que están escritas las instrucciones genéticas de la humanidad” (Henderson, 2011, p. 55). En el año 2004, el consorcio de
investigación publicaba la versión final o completa del genoma humano. En palabras del genetista estadounidense Francis Collins (1950), “se iniciaba una nueva era de investigación basada en la genómica que afectaría
crucialmente a la biología, a la salud y a la sociedad contemporánea” (Barbadilla, 2015).
217
Parte IV. La génesis de un nuevo paradigma
Finalmente, el tercer descubrimiento se produciría el 5 de julio de 1996, cuando el biólogo británico Keith
Campbell (1954) y el investigador británico Ian Wilmut (1944), del Instituto Roslin en Edimburgo, obtuvieron el
primer embrión de mamífero a partir de la clonación de una célula adulta. Y, aunque ya existían antecedentes
de clonaciones de ranas y peces, desarrollados por científicos rusos durante la década de 1980, esta era la
primera vez que se extraía “el núcleo de una célula somática (adulta) de una oveja y [se lo introducía] en un
óvulo al que previamente habían extraído el núcleo” (Henderson, 2011, p. 150).
A partir de estos descubrimientos, un nuevo camino se abría en la ciencia, permitiendo el desarrollo de toda
una serie de innovaciones entre las que se destacan los avances en el tratamiento para prevenir las enfermedades mitocondriales en humanos, que se transmiten de la madre a sus hijos.
“Como profetizo Diderot en su Sueño de D’Alembert, el futuro experto genético podría trabajar en ‘un local caliente,
con estantes de pequeños frascos o viales, cada uno con su etiqueta: guerreros, magistrados, filósofos, poetas,
cortesanos, prostitutas, reyes’. Los contenidos de los frascos podrían ser mezclados y, hasta donde la genética
determina la personalidad, podrían ser creados tipos de caracteres determinados” (Jencks, 1975, pp. 132-133).
La naturaleza, esa diseñadora eficiente. El papel de la biología en el diseño contemporáneo
Desdibujando las fronteras de las anomalías
A finales del siglo XX, la crisis de la arquitectura contemporánea había llevado a la aparición de siete anomalías
dentro de la disciplina. Siete anomalías imposibles de definir con el modelo anterior y que parecen fortalecer
de este modo la hipótesis de la génesis de un nuevo paradigma.
A dieciocho años del nacimiento de un nuevo milenio, el modelo ha cambiado: las anomalías recluidas dentro
de compartimentos estancos, con límites definidos, han mutado. Una nueva visión refleja la fuerte interdependencia que existe entre estas. El nuevo modelo considera las anomalías como un conjunto, pero donde los
ejes de la biología, la tecnología y lo digital se resignifican por sobre el resto. Una composición de manchas,
con diferentes niveles y sustratos, que se interrelacionan y desdibujan continuamente los bordes de sus
fronteras, y alteran el simple concepto de unidad por el de multiplicidad, donde las variables del tiempo y del
espacio son imprescindibles.
218
Fragmentación y Contaminación
En el marco del pensamiento del siglo XXI, nuevas estructuras se presentan en el horizonte, como herramientas aptas para comprender y articular esta nueva realidad.
Para el filósofo francés Jean-François Lyotard (1924-1998), en la contemporaneidad, los grandes relatos han
entrado en crisis; el sujeto actual solo puede construir sus pequeños relatos, explicaciones parciales, particulares y hasta a veces contradictorias, en búsqueda de una vida más grata y sencilla. Por su parte, el arquitecto
británico Neal Leach considera necesario “…‘repensar la arquitectura’ por fuera del marco de los discursos
arquitectónicos tradicionales, a través de una selección de textos escritos exclusivamente por intelectuales
ajenos al campo de la disciplina” (Valentino, Giménez, & Miras, 2011, p. 28).
De manera análoga, el arquitecto argentino Julio Valentino (1951), en su libro La arquitectura cómplice (2011), considera que los conceptos que caracterizan esta situación contemporánea son: la fragmentación y la contaminación.
Para Valentino, el concepto de fragmentación alude “…a la ausencia de cuerpos teóricos definidos, unitarios y
completos en donde integrar o vincular los discursos especulativos”. Se caracteriza por la excesiva utilización,
Marcelo A. Fraile - Arquitectura biodigital
por parte de los diseñadores, de saberes de otros campos: una interconexión de elementos interdependientes, fragmentos teóricos dispersos y parciales que terminan por definir una arquitectura compleja, imperfecta
y diversificada (2011, p. 16). Por su parte, el arquitecto italiano Vittorio Gregotti (1927) considera que esta
fragmentación, “…no parece presentarse como una condición provisoria; por el contrario, esta fragmentación
aparece como un nuevo modo de ser de la reflexión teórica” (2011, p. 13).
El segundo concepto propuesto por Valentino es el de contaminación o entrecruzamiento, y se refiere a una
apropiación de saberes de otras disciplinas para “cruzarlos” con saberes específicos del campo arquitectónico
durante el proceso de diseño. Una búsqueda de posibles interconexiones: “Analizando y cuestionando los bordes del saber disciplinar, [presentes] hoy, en la contemporaneidad, y que alimentan las ideas y las prácticas”
(2011, p. 53). Una relación ordenada y jerárquica entre lo natural y lo artificial: una concepción compleja, heterogénea, resultado del control de millones de variables, donde cualquier combinación es posible (Eisenman
& Glaister, 1988).
Y si bien a lo largo de la historia, la arquitectura ha recurrido a otras ramas del conocimiento, solo basta recordar los escritos de Vitruvio, Laugier, y tantos otros, en los últimos años, esta tendencia se ha acentuado
fuertemente y ha dado lugar al desarrollo de una arquitectura particularmente nutrida por el pensamiento de
otros campos: una práctica que ha puesto en crisis sus resultados.
La R-Evolución biológico-digital en la arquitectura del nuevo milenio
Lejos de criterios historicistas, la arquitectura contemporánea ha abandonado las cajas vacías, de líneas rectas y paralelas, para ser reemplazadas por estructuras biomórficas –formas fluidas geométricamente complejas, en continuo cambio y reconfiguración, formas de límites difusos y estructuras mutables, formas que rompen la homogeneidad del espacio euclídeo y lo transforman en espacios blandos, homogéneos y flotantes–.
Una arquitectura que para el arquitecto español Luis Arenas, de la Universidad de Zaragoza, es el “punto de
vista del ojo de Dios” que explicaría “…la perspectiva adecuada para contemplar obras como el Guggeheim de
Bilbao”, una mirada que incluye el “…tacto de sus materiales y el peso de sus espacios” (Arenas, 2010, p. 23).
En este sentido, la precisión aritmética abstracta del movimiento moderno impedía desarrollar modelos capaces de evolucionar de acuerdo al contexto. Desde este punto de vista, “…el ‘menos es más’ resulta[ba] peligroso. Para la adaptación al entorno, la exageración no es lujo sino necesidad’” (Arenas, 2010, p. 32).
Por consiguiente, se hace ineludible el desarrollo de un nuevo contexto que consienta la relación entre las
ciencias biológicas y la arquitectura, un camino fértil para el establecimiento de una lógica proyectual en los 219
procesos de creación: es el reencuentro de la arquitectura “…con esa naturaleza a la que ‘el cuerpo mecánico
[le] dio la espalda” (Arenas, 2010, p. 30).
Uno de los primeros en anticipar la fuerte incidencia que tendría la biología en la arquitectura contemporánea
fue el crítico y arquitecto norteamericano Charles Jencks (1939) quien, en 1969, predijo que la biología se
convertiría en la principal metáfora de la década de 1990 y que las escuelas biomórficas se transformarían en
la corriente arquitectónica más importante de este siglo (Frazer, 1995).
Una reinterpretación de diseño “biológico” que abandona la imitación de las morfologías animales o vegetales
del siglo XX para dar paso a una nueva lógica que encuentra en la naturaleza una diseñadora eficiente, de gran
rendimiento, que evita lo superfluo, y donde la optimización de sus recursos y de sus medios se define como
una de sus condiciones fundamentales.
El catedrático de la Universidad de Murcia, el español Francisco Jarauta Marión, en su conferencia inaugural
del 1.er Seminario de Arquitectura y Pensamiento2, proponía –a través de un juego de palabras–, transformar
2. Encuentro Miradas para un Cambio de Paradigma, realizado en la ETSA (Escuela Técnica Superior de Arquitectura)
entre el 11 y el 13 de noviembre de 2010 en Valencia, España.
Parte IV. La génesis de un nuevo paradigma
el concepto de “Evolución” en una “R-evolución”: una evolución acelerada, un modo inspirado en la naturaleza, un modelo híbrido biológico-digital, desarrollado bajo un enfoque algorítmico no lineal y virtual que
traspasa las fronteras de la imaginación, desciende a niveles celulares para desarrollar cadenas de programación genética.
Un camino de exploración de seres digitales, modelos evolutivos, sistemas basados en algoritmos genéticos,
en los que se integran y combinan una selección creciente de alternativas optimizadas de acuerdo con parámetros ecosustentables, dentro de un campo que podría definirse como morfogenético. Un principio válido que
posibilite restringir las opciones, desechando las no deseadas y optimizando las soluciones. Una arquitectura
de avanzada, en superación al ecologismo y al uso de la computadora como mero sustituto del dibujo manual
(Estévez, 2003, p. 4). Un interés por el cuidado de los recursos del planeta, modificando los discursos y los
procesos de ideación y materialización de la arquitectura de nuestro tiempo.
220
Marcelo A. Fraile - Arquitectura biodigital
EL MODELO BIOLÓGICO
“Goethe tuvo la capacidad de ver los procesos genéticos activos que operan dentro de las formas y a los que
llamo Urforms. Los Urforms no son las formas originales, como se suele pensar, sino que representan una forma
básica y sus futuras metamorfosis. Así, la Ur-plant sería un prototipo ideal que contiene todas las plantas del
pasado y del futuro” . (Luzarraga Álvarez, 2009).
Morfogénesis
Uno de los conceptos más importantes que desarrollaremos a continuación es el de morfogénesis. Etimológicamente la palabra morfogénesis tiene su origen en dos palabras griegas: ‘morphe’, que significa forma; y
‘genos’, engendrar o producir, es decir “la aparición de nuevas formas, el origen de las formas”.
Morfogénesis es un término utilizado en disciplinas tan disímiles como la cristalografía, el urbanismo o el arte;
al igual que con una variedad de usos que van desde lo estrictamente formal a lo bucólico. Sin embargo, su
origen se encuentra en el campo de la biología, donde comienza a ser utilizado recién a fines del siglo
XIX,
y
se refiere a aquellos dispositivos subyacentes que se relacionan con las transformaciones o cambios que se
producen en el desarrollo de las células y los tejidos (Cowin & Doty, 2007).
En este sentido, la palabra morfogénesis puede ser usada tanto “…para referirse a los cambios estructurales
observados en los tejidos como en el caso de desarrollo de un embrión, [como así también en alusión a] los
mecanismos subyacentes de los cambios estructurales” (Roudavski, 2009, pp. 345-374).
En botánica, la palabra morfogénesis “…se entiende como la disposición de la forma y la estructura, relacionadas con un proceso coordinado que involucra cambios en las formas celulares, el aumento del tamaño de
las células y la división por mitosis” (Roudavski, 2009, pp. 345-374).
Conceptualmente, la morfogénesis es uno de los tres aspectos de la biología del desarrollo, “incluye la forma
de los tejidos, de los órganos y de los organismos complejos y las posiciones de varios tipos de células especializadas” (Luzarraga Álvarez, 2009).
Es a través del estudio de la morfogénesis que se busca comprender el proceso que controla la distribución organizada de las células. Un proceso continuo, de aceleración progresiva, que aparece durante el desarrollo embrionario de un organismo y genera las formas características de los seres vivos.
221
En otras palabras, la morfogénesis tiene como fin estudiar y analizar las características fundamentales de
los entes biológicos, de acuerdo con el medioambiente en que se desenvuelven: un intento por entender los
mecanismos que llevan al crecimiento, desarrollo, evolución, y diferenciación de cada ser vivo.
Para realizar estos estudios, los biólogos elaboran experimentos mediante la utilización de modelos matemáticos digitales, modelos genéricos en múltiples escalas con el objeto de simular y entender los procesos
desarrollados durante la morfogénesis, en lo que respecta al crecimiento y la adaptación de un organismo.
Para el escritor norteamericano Steven Johnson (1948), la morfogénesis define la capacidad de todo ser vivo de
desarrollar un cuerpo cada vez más complejo, a partir de un origen relativamente simple.
“…la división de una célula es el resultado de la eliminación de cuatro paredes y la creación de diez nuevos
muros (ocho subdivisiones de las paredes anteriores y dos nuevos muros que separan la nueva célula creada).
Las entidades asociadas con los nuevos muros están luego definidas a través de una función de herencia y
están asociadas con las dos células heredadas a través de otra” (Roudavski, 2009, pp. 345-374).
Parte IV. La génesis de un nuevo paradigma
De la teoría de la evolución a las leyes de la herencia genética
Para Charles Darwin (1809-1882), el estudio de la morfogénesis posibilita explicar la teoría de la selección1 por
la cual la naturaleza regula la variabilidad de las especies. De acuerdo con esta teoría, el origen y la transformación de los seres vivos se produce como una respuesta a las exigencias del ambiente, donde cada especie
desarrolla características particulares que las diferencian.
Desde este punto de vista, cada elemento de su organismo se encuentra en completa relación sistémica con la
estructura total. Para esto, durante la morfogénesis, los organismos individuales heredan las características de
sus progenitores con modificaciones: una serie de pequeñas variaciones aleatorias que ayudan a los organismos a competir por el alimento y la copula y que facilitan su supervivencia, transmitiéndose a su descendencia;
en tanto que, las variaciones con efecto negativo desaparecen de manera gradual, a medida que los individuos
portadores sucumben frente a los individuos mejor adaptados (Henderson, 2011, p. 10).
Durante su viaje de exploración a bordo de la fragata Beagle, Darwin había llegado a las islas Galápagos y se
sorprendió al ver la gran diversidad de flora y fauna. Una primera explicación fue que quizás:
“Las corrientes marinas, con sus cambios periódicos, podrían haber permitido que muchas diferentes especies
inmigraran a las islas” (Di Tada, 2002, pp. 15-40). Posteriormente, en las islas, las especies se establecieron y
dispersaron, para finalmente comenzar a evolucionar, generando nuevas especies. Uno de esas especies son
los pinzones de Darwin:“Los pinzones, probablemente, descendientes de algunos ancestros comunes. Luego,
debido al aislamiento en las islas, a fenómenos probabilísticos, a climas diferentes, a características naturales
tales como disponibilidad y tipo de alimentos, se derivaron en trece diferentes especies” .
Aquellas especies más fuertes y adaptadas sobrevivieron, transmitiendo a sus descendientes sus características,“…aumentando, de esta manera, la fortaleza general de la especie en relación con el entorno” (Di Tada,
2002, pp. 15-40).
Sin embargo, a pesar de lo relevante de los descubrimientos de Darwin, su teoría no explicaba cuáles eran
esas variaciones individuales que se suponían eran transmitidas de una generación a la siguiente. El naturalista inglés apoyaba la idea de la “pangénesis”, donde los rasgos de cada ser humano eran semejantes a un
fluido, y que cada individuo era el resultado de la fusión de las características de cada uno de sus progenitores.
Hipótesis que, de ser cierta, implicaría que al cabo de cierto tiempo una población llegaría a tener los mismos
rasgos intermedios.
Contemporáneo a Darwin, en 1856, Johann Gregor Mendel (1822-1884), un monje agustino del monasterio de
222 St. Thomas de Brünn, comenzó a desarrollar una serie de experimentos sobre la transmisión de los caracteres
hereditarios, buscando descubrir las leyes que rigen la herencia genética. Para esto, centró sus trabajos en el
estudio de diferentes variedades de plantas de guisantes: conociendo que ciertas plantas “…reproducen realmente sus características, es decir, que transmiten fiablemente a la generación siguiente características como
el tamaño o el color” (Henderson, 2011, p. 12).
En sus ensayos, Mendel seleccionó siete características de transmisión de los guisantes (conocido como fenotipo) y realizó durante veinte años, el cruzamiento controlado de plantas con estas características, buscando
obtener diferentes tipos de especies híbridas.
1. En 1831 Charles Darwin se embarcó en el barco inglés Beagle para realizar una expedición científica alrededor del
mundo, durante cinco años. De regreso en Gran Bretaña, y a partir de sus descubrimientos, Darwin publicó en 1842, su
teoría sobre la evolución de las especies. Sin embargo, no fue dada a conocer hasta 1858, en que fue presentada en la
Royal Society of London, en forma conjunta con Alfred Russel Wallace (1823-1913), un joven naturalista británico que
había llegado a las mismas conclusiones que Darwin de un modo independiente. En 1859, Darwin publicaba “El origen de
las especies por medio de la selección natural”. La teoría de Darwin estaba influida por las ideas del geólogo inglés Adam
Sedgwick (1785-1873) y del naturalista inglés John Stevens Henslow (1796-1861).
Marcelo A. Fraile - Arquitectura biodigital
Por ejemplo,
“…cruzó las especies de guisantes que siempre producían semillas redondeadas con especies que producían semillas arrugadas; las flores
de color purpura, con flores de color blanco; y las plantas con tallos largos, con plantas cuyos tallos eran cortos”. En la siguiente generación, a
la que denominó F1, solo aparecían algunos de los rasgos (los rasgos
predominantes) “…la progenie siempre tenía semillas redondeadas, flores de color purpura o tallos largos”(Henderson, 2011, p. 12).
Posteriormente, utilizó cada especie híbrida para autofertilizarla, obtuvo
así una nueva generación de guisantes a la que denominó F2, en la que
reaparecieron algunos de los rasgos perdidos en la generación anterior,
“…el 75% de los guisantes presentaba semillas redondeadas, y el 25%
restante, semillas arrugadas” (Henderson, 2011, p. 13).
Entre 1956 y 1968, Mendel desarrolló sus experimentos con más de
29.000 especies de guisantes. De sus resultados, elaboraría las tres
leyes generales de la herencia:
-
Primera ley o ley de la uniformidad, sostiene que cada rasgo
fenotípico transmitido en la herencia, al que Mendel denomino
“factores”2, depende de los alelos procedentes de su progenitor
(uno del padre, y uno de la madre). En algunos casos, el individuo puede recibir alelos diferentes: aquel que se expresa en el
fenotipo, recibe el nombre de dominante; mientras que el otro,
que se mantiene oculto, se llama recesivo. Por ejemplo, si se
cruzan dos razas de origen puro, en un determinado carácter,
los descendientes de la primera generación serán todos iguales
entre sí (igual fenotipo e igual genotipo) e iguales (en fenotipo)
a uno de sus progenitores.
-
Segunda ley o ley de la segregación, sostiene que ”…los genes
pueden presentar formas alternativas denominadas alelos que
influyen en el fenotipo, como puede ser la configuración de las
semillas (o… el color de los ojos de las personas)” (Henderson,
2011, p. 14). Es decir, que los caracteres recesivos, al cruzar dos
razas puras, quedarán ocultos en la primera generación, para
reaparecer en la segunda, con una proporción de uno a tres con
relación a los caracteres dominantes. En la segunda generación,
los individuos son híbridos de la primera, ya que estos poseen
diferentes fenotipos unos de otros.
223
Fig. 1. Leyes de Mendel
2. En 1889, el botánico holandés Hugo Marie de Vries (1848-1935) utilizó el
término “pangén” para definir a la partícula más pequeña, capaz de representar
una característica hereditaria. Poco tiempo después, en 1909, el botánico danés Wilhelm Johannsen (1857-1927) propuso la expresión Gen y Genotipo para
definir la constitución genética de un organismo, y fenotipo para precisar las
características físicas que dan lugar esos genes, es decir, la forma en cómo se
manifestarían esos genotipos.
En 1924, el genetista inglés Ronald Fisher (1890-1962) propuso que la mayor
parte de los rasgos genotípicos no estaban controlados por un único gen, sino
por una combinación de genes distintos. Hoy en día, la genética mendeliana es
aceptada como el mecanismo a través del cual se produce la evolución planteada por Darwin.
Parte IV. La génesis de un nuevo paradigma
-
Tercera ley o ley de la herencia independiente, sostiene que “…el patrón de herencia correspondiente a un rasgo no influye en el de otro” (Henderson, 2011, p. 14). De este modo, por ejemplo, los
genes encargados de configurar el color de los ojos son distintos de los que codifican el color de pelo
y no influyen en estos3. En la transmisión los caracteres son independientes y se combinan al azar:
cada par de alelos que controla un carácter se transmite de manera independiente de cualquier otro
par de alelos que controlan otros caracteres en la segunda generación, y se combinan de diferentes
maneras.
En 1865 Mendel presentó sus trabajos en la Natural History Society de Brünn, publicándolo al año siguiente
con el nombre de Ensayo sobre los híbridos vegetales. Un pequeño boletín en donde exponía la formulación
de las leyes de la genética.
Sin embargo, un hecho casi trascendental alteraría las investigaciones del monje. En 1868, Mendel fue elegido abad y suspendió definitivamente todas sus investigaciones. Sus teorías serían olvidadas hasta que, en
1900, el botánico holandés Hugo Marie de Vries (1848-1935), el biólogo alemán Carl Correns (1864-1933) y el
genetista austriaco Erich von Tschermak (1871-1962) redescubrieran de manera independiente las leyes de la
herencia desarrolladas por Mendel, incorporando el concepto de mutación a la teoría evolutiva.
Genética de la evolución
Desde un punto de vista morfogenético, todos los seres vivos poseen células. Es la unidad más pequeña de
un organismo, capaz de actuar de manera autónoma. Cuando una célula se divide, en su etapa de mitosis
celular, estas copian su genoma completo y generan células idénticas a la célula progenitora. En su interior,
se encuentran los cromosomas, una serie de elementos “…constituidos por cromatina (una combinación de
ácido desoxirribonucleico [ADN] y de proteínas), que se localizan en el núcleo de la célula y que son los portadores de la mayor parte de la información genética de la célula” (Henderson, 2011, p. 17).
Por lo general, los cromosomas suelen ser representados en forma de bastoncillos, con una zona estrecha y
reducida en su parte media, sin embargo, esta configuración solo es adoptada durante la división celular, el
resto del tiempo su forma es similar a unos cordones laxos y alargados (Henderson, 2011, p. 17).
Los cromosomas fueron descubiertos en la década de 1840, pero su función todavía no era conocida. Los únicos avances al respecto se produjeron en 1902, cuando el biólogo Thoedor Boveri (1862-1915) y el genetista
Walter Sutton (1877-1916) propusieran, cada uno por su cuenta, la posibilidad de que los cromosomas fueran
224 portadores del material hereditario.
En 1903, el médico y genetista estadounidense Walter Stanborough Sutton (1877-1916) descubrió que durante
la meiosis celular, los cromosomas se comportaban de un modo similar a lo que Mendel había elaborado para
las plantas, es decir que las leyes de la herencia mendeliana podían ser aplicadas a los cromosomas, a un
nivel celular.
Mientras tanto, uno de los redescubridores de los trabajos de Mendel, el biólogo británico William Bateson
(1861-1926), en 1905 había acuñado el término genética para designar a la ciencia dedicada al estudio de los
fenómenos de la herencia y la variación de los seres. Bateson también es el creador de los términos homocigoto y heterocigoto4, y también alelomorfo, el cual fue abreviado en alelo5.
3. En realidad, ninguna de las leyes de Mendel es totalmente correcta. Algunos de los fenotipos sí se encuentran relacionados entre sí y se heredan de forma conjunta.
4. Cuando los miembros del par de genes alelos son iguales en un individuo, para el rasgo hereditario en estudio el individuo es homocigoto, en tanto que, si los miembros del par de genes alelos son distintos, para el rasgo hereditario en estudio
el individuo es considerado heterocigoto.
5. De acuerdo al Diccionario de la Real Academia Español, recibe el nombre de alelo, “Cada una de las formas alternativas
de un gen que ocupa el mismo lugar en los cromosomas homólogos y cuya expresión determina las características del
mismo rasgo de organización, como el color de los ojos” (RAE, Asale, 2014).
Marcelo A. Fraile - Arquitectura biodigital
Poco tiempo después, en 1908, el genetista estadounidense Thomas Hunt Morgan (1866-1945) comenzó a
experimentar con la mosca de la fruta, Drosophila melanogaster, con el fin de evaluar los patrones de herencia
y refutar las teorías de Darwin y de Mendel. Sin embargo, luego de una serie de experimentos, Morgan no pudo
alcanzar sus objetivos, todo lo contrario: a través de sus investigaciones, logró demostrar no solo “…que los fenotipos se heredan de la forma que proponía Mendel, sino también que las unidades de herencia residen en los
cromosomas” (Henderson, 2011, p. 16).
A partir de esto, fue posible dilucidar que cada especie posee un número determinado de cromosomas,
agrupados en pares. Cada par está compuesto por dos cromosomas: un cromosoma herencia de su padre, y
un cromosoma herencia de su madre. En el caso del ser humano posee 23 pares de cromosomas: 22 pares
denominados autosomas, y un par de cromosomas sexuales. Los óvulos (herencia de la madre) siempre son
portadores de un cromosoma X, en tanto que los espermatozoides (herencia del padre) pueden ser portadores de un cromosoma X o de un cromosoma Y. En caso que el espermatozoide posea un cromosoma X,
cuando se una con el ovulo, dará lugar a un gameto femenino; mientras que, si el espermatozoide posee un
cromosoma Y, dará lugar a un gameto masculino.
Cuando un cromosoma del padre, se fusiona con un cromosoma de la madre, se produce un entrecruzamiento
del material genético que genera una combinación única de alelos.
En el caso del ser humano, la unión de un espermatozoide masculino y un ovulo femenino constituye la fecundación, y la célula resultante de esto, se denomina “cigoto” o “célula huevo”.
A la caza del ADN
En 1869, el científico suizo Friedrich Miescher (1844-1895), de un modo accidental, descubrió que los genes
son los portadores de los códigos necesarios para la elaboración del ADN. Tiempo después, en 1928, el médico estadounidense Oswald Avery (1877-1955), el genetista estadounidense Maclyn MacCarty (1911-2005)
y el genetista canadiense-estadounidense Colin MacLeod (1909-1972) corroboraron las teorías de Miescher,
al experimentar con más de 100 litros de bacterias durante más de una década y encontrar la evidencia de la
existencia del ADN.
Posteriormente, en 1952, el químico austriaco Erwin Chargaff (1905-2002) había realizado una serie de experimentos que daban evidencia que cada célula estaba compuesta por un número determinado de partes que
guardaban una estrecha relación estructural y funcional entre sí y con la estructura total del conjunto.
Ese mismo año, la biofísica británica Rosalind Francklin (1920-1958), del King’s College de Londres, utilizando
un análisis de difracción con rayos X, obtuvo una imagen cristalográfica del ADN.
Un año después, en abril de 1953, el neurocientífico británico Francis Crick (1916-2004) y el biólogo norteamericano James Watson (1928) –quienes se encontraban trabajando en el King’s College de Cambridge y
conocían la imagen cristalográfica obtenida por Francklin–, publicarían un artículo en la revista “Nature”, donde
proponían la estructura de hélice doble del ADN: un mecanismo a través del cual “…el código de la vida se
copia a medida que las células se dividen, de forma que cada cadena de ADN proporciona una plantilla a partir
de la cual es posible la duplicación de las instrucciones genéticas” (Henderson, 2011, p. 38).
Sin embargo, pese a haber encontrado el código genético que producía los 20 aminoácidos que forman las
proteínas de la vida, lo que todavía no estaba claro era su significado. Esto iba a cambiar en 1958, cuando
Crick (1916-2004) descubriría que “…el ADN se podía traducir en aminoácidos por medio de una ‘molécula
adaptadora’… un intérprete que transmitía las órdenes desde los genes hasta los orgánulos celulares que
elaboran las proteínas” (Henderson, 2011, p. 42). Dos años después, en 1960, el bioquímico francés Jacques
Monod (1910-1976) y su equipo demostrarían que el ADN produce una molécula adaptadora, la cual está
225
Parte IV. La génesis de un nuevo paradigma
constituida por un compuesto químico relacionado con el ADN, el cual
fue denominado como “ácido ribonucleico” (ARN).
El alfabeto del ADN
Conceptualmente, cada molécula del ADN se encuentra formada por
“…fosfatos y azúcares, que conforman su arquitectura estructural, y por
elementos químicos ricos en nitrógenos denominados nucleótidos o bases, que codifican la información genética” (Henderson, 2011, p. 37).
Los nucleótidos pueden ser de cuatro tipos: adenina (A), timina (T), citosina (C) y guanina (G). A su vez, cada uno de estos nucleótidos se
encuentra unido con su “pareja natural”: la adenina (A) con la timina (T),
y la citosina (C) con la guanina (G). Una propiedad de complementariedad que permite que, si una de las hileras dice GAGAG, en la otra solo
podrá decir CTCTC. De esto se desprende que, a partir de una hilera
es posible reconstruir la otra, y en conjunto conforman las instrucciones
con que se redacta el código genético. Su posición dentro de una larga
cadena de ADN determinará la información genética, es decir, las instrucciones necesarias para el surgimiento y desarrollo de la vida.
Cuando una de estas se divide, la doble hélice se abre por la mitad
en sus dos cadenas constituyentes. En consecuencia, cada mitad sirve
de plantilla para la replicación, proceso que conduce a la creación de
una nueva forma: una encima completa la secuencia añadiendo nuevas
bases a las letras de cada cadena, emparejando las A con las T, y las
C con las G, lo que da finalmente como resultado la aparición de dos
nuevas dobles cadenas de ADN. Una manera fiable de transmitir la herencia y producir otro organismo idéntico al original.
226
Fig. 2. En 1952, la biofísica británica Rosalind Francklin (1920-1958), del King’s
College de Londres, utilizando un aná-
En este sentido, la secuencia del ADN codifica doblemente la información genética, lo que facilita su copia. Una garantía a la supervivencia
a partir de la generación de respuestas a los estímulos externos (exógenos) e internos (endógenos), pudiendo modificar su composición y
forma a fin de especializarse en los diferentes órganos y organismos
existentes en la naturaleza. Desde las formas poligonales que se encuentran en los vegetales hasta llegar incluso a las delgadas y alargadas
células de los músculos en los animales.
lisis de difracción con rayos X, obtuvo
una imagen cristalográfica del ADN.
El mensajero de los dioses
Para que el ADN pueda comunicarse con las proteínas, requiere de un
intermediario, un mensajero que recibe el nombre de ARN.
El ARN (ácido ribonucleico) interviene junto con el ADN en la síntesis de
las proteínas y en el traslado de toda la información genética que posee
el ADN: el ARN copia la información ubicada en cada gen del ADN, para
trasladarla al citoplasma donde esta se une con el ribosoma para dirigir
la síntesis de proteínas.
Marcelo A. Fraile - Arquitectura biodigital
Conceptualmente el ARN es similar al ADN, aunque con algunas diferencias estructurales: a diferencia del ADN, no presenta una base timina,
utiliza uracilo (U). Además, el ARN es inestable, presenta “…un ciclo vital
Fig. 3. ADN. Conceptualmente, cada
molécula del ADN se encuentra formada por “…fosfatos y azúcares, que
más breve en la célula y forma muchos tipos diferentes de moléculas
que desempeñan funciones especializadas” (Henderson, 2011, p. 43).
conforman su arquitectura estructural,
El ARN está formado por nucleótidos y cada uno de estos se encuentra
compuesto por ribosa, fosfato y cuatro compuestos: adenina (A), guanina (G), uracilo (U) y citosina (C).
bases, que codifican la información
y por elementos químicos ricos en nitrógenos denominados nucleótidos o
genética” (Henderson, 2011, p. 37).
En este sentido, a diferencia del ADN, el ARN agrupa sus proteínas
en una hélice simple y transmite el código genético almacenado por el
ADN: cuando la doble hélice del ADN se separa, “…una de las cadenas
es leída para producir una cadena de ARNm que representa una imagen
especular de la primera”. En esta transcripción, “…las C de los genes
se convierten en G en el ARNm; las T en A; las G en C, y las A en U; es
decir, en las moléculas de ARN, el uracilo sustituye a la timina del ADN”
(Henderson, 2011, pp. 43-44).
Posteriormente estas señales genéticas van a migrar “…desde el núcleo
de la célula hasta las estructuras celulares que elaboran las proteínas,
denominadas ribosomas, en las que los aminoácidos se ensamblan
en cadenas siguiendo un orden… especificado por el código genético”
(Henderson, 2011, pp. 43-44).
Existen diferentes tipos de ARN:
-
ARNmensajero (ARNm): una molécula de una sola cadena que posee el código genético necesario para establecer el esquema de los
aminoácidos, “…se utiliza para la elaboración de las proteínas mediante un proceso denominado traducción” (Henderson, 2011, p. 43).
-
ARNtransferencia (ARNt): es el encargado de llevar los aminoácidos a los ribosomas, “…recoge los aminoácidos y los alinea
227
Parte IV. La génesis de un nuevo paradigma
en la cadena proteica en la fase de crecimiento” (Henderson,
2011, p. 44). El ARNt también es el encargado de codificar la
información que posee el ARNm.
-
ARNribosómico (ARNr): forma parte de los ribosomas, actuando además en la actividad enzimática al generar enlaces entre
aminoácidos adyacentes.
Crick descubrió cómo los ribosomas determinan el orden en que se
disponen los aminoácidos, así como también determinan los puntos de
inicio y finalización de las cadenas proteicas: fundamentado en la combinación de tres letras del ADN, denominadas “triplete”.
En 1961, el bioquímico estadounidense Marshall Nirenberg (1927-2010)
descifró el primer triplete, y cinco años después, ya se habían identificado todas las combinaciones de las cuatro bases: 64 tripletes (o coFig. 4. El ARN está formado por nucleótidos y cada uno de estos se encuentra compuesto por ribosa, fosfato
y cuatro compuestos: adenina (A),
guanina (G), uracilo (U) y citosina (C).
dones), pese a que solo existen 20 aminoácidos. Esto quiere decir que
algunos aminoácidos son utilizados por más de un codón: por ejemplo
“…la fenilalanina no solamente está codificada por el codón UUU, sino
también por el codón UUC. Cada uno de los aminoácidos luecina, serina
y arginina puede ser codificado por seis codones. Solo dos de los 20
aminoácidos están codificados por un codón único: el triptófano (UGG)
y la metionina (AUG)” (Henderson, 2011, p. 45).
La redundancia ofrece una ventaja muy significativa: los aminoácidos
más importantes pueden ser generados por codones múltiples y crear
una resistencia ante las mutaciones. Por ejemplo, “…la glicina puede estar codificada por los codones GGA, GGC, GGG, GGU; si la última base
Fig. 5. El ARN copia la información
ubicada en cada gen del ADN, para
trasladarla al citoplasma donde esta
se une con el ribosoma para dirigir la
síntesis de proteínas.
228
presenta una mutación, el producto sigue siendo el mismo” (Henderson,
2011, p. 45). De este modo se disminuyen las posibilidades de producir
errores durante el mecanismo de copia.
Para la década de 1970, la ciencia ya había desentrañado la estructura
del ADN y los tripletes que codifican la producción de proteínas. Treinta
años después, en 1990, se pondría en marcha el Proyecto Genoma Humano Internacional, financiado por gobiernos e instituciones benéficas,
bajo la dirección de James Watson, cuyo objeto fundamental era determinar la secuencia de pares de bases químicas que componen el ADN.
En el año 2004, el consorcio de investigación publicó la versión final o
completa del genoma humano.
Mutaciones
Actualmente, la teoría genética de Mendel es aceptada como mecanismo a través del cual tiene lugar la evolución darwiniana. Un proceso
donde la naturaleza se encargará de concebir en cada generación pequeñas modificaciones en su patrón celular que darán lugar a nuevas
variaciones genéticas o nuevos alelos. Una combinación de infinitas posibilidades que le permitirá crear un universo de formas vivas en constante evolución. Pequeñas mutaciones6 que se incorporan gradualmente
6. Por lo general, las grandes mutaciones tienen pocas probabilidades de difun-
Marcelo A. Fraile - Arquitectura biodigital
al conjunto de individuos de la población: “…los individuos de mayor éxito procedentes de estos conjuntos son los que dan lugar a la generación
siguiente” (Henderson, 2011, p. 22).
Tomemos el ejemplo de la polilla moteada:
“Antes de la Revolución Industrial en Inglaterra, …presentaban un
cuerpo uniformemente blanco y moteado, un esquema de color adaptativo que les permitía camuflarse en los líquenes que cubrían los
troncos de los árboles. Sin embargo, a lo largo del siglo XIX la polución
procedente de las fábricas …hizo que los troncos de los árboles de
los bosques cercanos adquirieran una coloración negra con el hollín… la polilla moteada presentó una variante de color negro debido
a una mutación en el gen que produce el pigmento melanina… La
modificación del medioambiente, en el que ahora predominaban los
arboles cubiertos por hollín, había hecho que el alelo que codifica el
color oscuro en la polilla tuviera una ventaja adaptativa” (Henderson,
2011, p. 24).
Un complejo proceso encargado de controlar la distribución espacial
organizada y especializada de las células durante el desarrollo de un
sistema en la naturaleza, que produce las características de su forma:
estos pequeños errores durante el proceso de copia de las células se
transforman en el material básico utilizado durante la evolución.
Un mecanismo subyacente responsable de los cambios estructurales.
Una distribución desarrollada a partir del fenómeno de autoorganización, es decir, una organización interna, sin agentes o guías externos.
Un proceso de diversificación y adaptación por medio de la selección
natural de Darwin (1871): donde las formas habrían surgido a partir de
las ventajas adaptativas a su ambiente que les dan el tener ciertas características de las que carecen otros seres.
dirse, o son letales en sí mismas ya que eliminan al organismo o son tan extremas que imposibilitan al individuo desarrollarse dentro de su ambiente.
Fig. 6. En 1990, se pondría en marcha
el Proyecto Genoma Humano Internacional, financiado por gobiernos e instituciones benéficas, bajo la dirección
de James Watson, cuyo objeto fundamental era determinar la secuencia de
pares de bases químicas que componen el ADN.
229
Parte IV. La génesis de un nuevo paradigma
Las teorías de D´Arcy Thompson
Los cimientos del concepto de Morfogénesis fueron introducidos por el profesor escocés en matemática y
zoología de la Universidad de St. Andrews, D´Arcy Wentworth Thompson (1860-1948).
En el epílogo de su libro, “On Growth and form”, publicado en 1917, Thompson afirmaba que su propósito principal era el de “…correlacionar mediante la exposición matemática y las leyes físicas, algunos de los fenómenos externos más simples del crecimiento orgánico y la estructura o forma, considerando todo el tiempo, …la
estructura del organismo como una configuración material y mecánica” (1961, p. 26).
En sus investigaciones, Thompson abordaría el estudio del crecimiento y la forma, desde una geometría
pitagórica, intensificada a través de las teorías mecánicas de Newton. Una teoría híbrida utilizada para argumentar cómo las fuerzas físicas del medioambiente modelan las formas de los organismos de un modo
directo: para Thompson, “las fuerzas ‘internas’ y genéticas únicamente son responsables de la producción de
los materiales brutos” (Gould, 1961, p. 8), el resto de la tarea, recaería sobre las fuerzas del medioambiente.
En este sentido, Thompson no niega la selección natural, aunque sugiere que esta “… actúa solo para eliminar
a los no aptos [pero] no sirve como una fuerza progresiva [que describa los procesos o mecanismos subyacentes] en [la] evolución” (Bonner, 1961, p. 14). Por ejemplo:
“…para explicar la piel manchada de un jaguar, la explicación evolutiva es que la selección natural prefirió este
tipo de superficie para que el felino pudiera camuflarse entre la espesa vegetación y acechar más fácilmente a
su víctima. Esta explicación, aunque parcialmente cierta, adolece de un defecto: no establece cómo la selección
natural conforma ese patrón, o de qué armario de pieles elige la naturaleza la más adecuada para el jaguar, o
cómo se adapta a los cambios evolutivos que ha sufrido esta especie a lo largo del tiempo” (Ledesma Durán,
2012, p. 6).
Y aunque en su trabajo no llega a cerrar el tema, en sus investigaciones Thompson presentaría un camino
alternativo a la selección natural de Darwin, como un factor intrínseco de esa propia evolución.
“El hecho de que muchas formas biológicas parezcan seguir reglas matemáticas o geométricas sencillas, indica que la existencia de fuerzas de constricción en su crecimiento es una explicación más parsimoniosa que
la selección natural” (Thompson, 1961).
A partir de sus indagaciones, Thompson consideró que el crecimiento de los organismos y su forma son
esencialmente problemas físico-matemáticos: donde el desarrollo de las células, los tejidos, los huesos, y
230 las hojas obedecen las leyes de la física, y sus partículas se desplazan, se moldean y se ajustan de acuerdo
a esta (1961, p. 24). Una explicación que considera los cambios morfológicos de un organismo, como “… a
resultante de un conjunto de fuerzas, que representan o simbolizan las manifestaciones de varios tipos de
energía” (1961, p. 27).
Un compendio de fórmulas científicas que buscan explicar los procesos biológicos de la morfogénesis. Un
equilibrio dinámico donde el sistema óseo no es solo una parte estructural: el esqueleto se mantiene unido
y articulado a través del sistema muscular, condicionado por las fuerzas actuantes del entorno (como la gravedad, tensión superficial y fuerzas electromagnéticas) que determinan la forma final de los organismos. Un
proceso de adaptación que se presentaría de dos modos diferentes: a) cuando un organismo obtiene un buen
diseño mecánico, este permanecería en la población mediante selecciones favorables; y b) cuando los efectos directos del ambiente, a través de fuerzas mecánicas o físicas, producirían efectos sobre los organismos
(Bonner, 1961, p. 14).
A través de una “matematización de la biología”, Thompson intentaba mostrar a los naturalistas los conceptos
aritméticos necesarios para desarrollar su trabajo; y a los matemáticos, un nuevo campo de trabajo que les
permitiera bosquejar el universo (1961, p. 309).
Marcelo A. Fraile - Arquitectura biodigital
En este sentido: “… la ecuación de una curva, la descripción de una
espuma o de un tejido celular, todo está al alcance de las matemáticas
…todos ellos son sumas de otros principios o fenómenos más elementales” (1961, p. 259).
Un estudio dinámico, a partir de dos fenómenos asociados: el de crecimiento, y el de la forma. El primero de estos, el de crecimiento, cuya
velocidad variable ha producido, “…mediante sus incrementos graduales y desiguales, las etapas sucesivas del desarrollo y la configuración
final de toda la estructura material” (1961, pp. 49-50); el segundo, el de
la forma, cuyo sistema de fuerzas en equilibrios ha generado “…ventaja[s] para el organismo, de un acrecentamiento de sus posibilidades de
supervivencia o perpetuación” (1961, pp. 195-196).
Thompson utiliza las deformaciones de una cuadrícula cartesiana plana
para demostrar que, desde un punto de vista evolutivo, existen ciertas
correspondencias topológicas entre estructuras biológicas próximas: un
proceso de comparación de dos o más formas afines. Para esto, inscribe
el contorno de un organismo natural en una cuadrícula cartesiana plana:
una transformación de la figura del organismo a partir de ejes “x” e “y”.
Al someter el sistema regular a una deformación sobre alguna de las direcciones de los ejes, se obtendría una imagen nueva que representaría
una deformación proporcional de la anterior figura.
Una comparación morfológica de su perfil, una comparación punto por
punto, por encima de su genética. Es lo que en la rama de la física se
conoce como ‘isotermas’, ya que comúnmente estos mecanismos están
asociados a los fenómenos de temperatura y conducción del calor.
Para este proceso, existen cuatro alternativas posibles de acción. La primera opción se produce modificando proporcionalmente alguno de sus
ejes, de este modo la cuadrícula se transformaría en una retícula proporcional, por ejemplo, del diagrama original, sustituimos la x, por un valor x’=
2x/3; la segunda opción se produce modificando uno de los ejes mediante
Fig. 7. “La ecuación de una curva, la
descripción de una espuma o de un
tejido celular, todo está al alcance de
las matemáticas …todos ellos son sumas de otros principios o fenómenos
más elementales” (1961, p. 259).
231
Parte IV. La génesis de un nuevo paradigma
un sistema proporcional no uniforme en todas las direcciones, por ejemplo, del diagrama original, sustituimos la
x por un valor x’=logaritmo de x; la tercera opción se produce modificando las coordenadas rectangulares de un
modo oblicuo, por ejemplo, del diagrama original, se modifica la ortogonalidad de los ejes con un cierto ángulo;
finalmente, la cuarta opción se produce a través de otras alternativas como pueden ser las deformaciones radiales, desde un punto central, en arcos, circulares, etcétera (1961, p. 264).
Un proceso de transformación topológica flexible donde “…cada punto puede cambiar su lugar, cada línea su
curvatura, cada área su magnitud”, pero tanto el punto como la línea continuarán existiendo, manteniendo su
orden y posición topológica relativa. Una metodología que posibilita develar cómo ciertas estructuras, al ser
deformadas por la acción combinada de fuerzas apropiadas, dejan ver su correspondencia con otras estructuras próximas. Un proceso capaz de transformar fácilmente un “…diagrama de coordenadas de [un] cráneo
humano en el diagrama correspondiente de [un] cráneo de simio o de babuino” (1961, p. 304).
Más adelante, en sus estudios, Thompson reconocería que su trabajo se limita a casos del tipo simples, presentando ciertas dificultades cuando se ejecuta en un animal entero. Esto se debe a la complejidad y cantidad
de elementos en juego, ya que muchas de las formas orgánicas existentes no pueden ser todavía definidas a
través de las ciencias físicas y matemáticas de nuestro tiempo.
La morfogénesis de Alan Turing
En 1952, el matemático británico Alan Mathison Turing (1912-1954) publicó un artículo titulado “The chemical basis of morphogenesis”7 en donde desarrollaba de manera novedosa una explicación de la morfogénesis a través de la utilización de modelos químico-matemáticos. En su trabajo postulaba “…la presencia de
señales químicas y procesos físico-químicos como la difusión, la activación y la desactivación en el crecimiento celular y orgánico” (Luzarraga Álvarez, 2009).
Turing propuso su hipótesis a partir del concepto de “filotaxis geométrica” donde la forma de las plantas quedaba definida a partir de “…una teoría general de la morfogénesis de los entramados cilíndricos” (Weinstock,
2004, pp. 10-17). Para esto, desarrolló sus conjeturas a partir de factores que regulan el comportamiento celular, por ejemplo, cómo dos células idénticas se agrupan y organizan para luego especializarse, hecho que
explicaría los patrones irrepetibles de las manchas en ciertos animales.
En sus primeros modelos, Turing abordaría la ruptura de la simetría y, por consiguiente, de la homogeneidad
232
en la naturaleza. Para esto, utilizó ecuaciones de reacción-difusión no lineales para generar patrones durante el desarrollo de un embrión. Consideró dos tipos de proteínas denominadas morfógenos que se difunden
e interactúan entre sí a través de un tejido celular del mismo linaje: un sistema de reacción-difusión en el
que intervienen estas sustancias químicas, una de ‘activación’ que promueve la reacción, y otra de ‘inhibición’ que la suprime. Una serie de productos químicos reaccionan entre sí y se difunden en el tiempo entre
las células de un embrión8.
Ahora bien, el modelo parecía tener un error: de acuerdo a la segunda ley de la termodinámica, estas variaciones no se propagan de manera completamente aleatoria, sino en anillos concéntricos o espiraciones
irradiando hacia fuera, “…estos patrones espaciales se forman por un tiempo limitado hasta que la mezcla
deja de reaccionar y desaparece… un proceso homogeneizador que tendería a borrar cualquier diferencia
local, es decir, cualquier patrón” (Ledesma Durán, 2012, pp. 5-6).
7. Turing, A. (1952). The chemical basis of morphogenesis, Londres: Philosophical Transactions de la Royal Society
of London.
8. Una de las principales y primeras críticas que se le hicieron al trabajo de Turing fue con referencia al concepto de ‘morfógenos’. Turing, en su trabajo, no definía con precisión este término, limitándose a definirlo “…como ‘sustancias productoras
de forma’. Aunque más adelante agrega… algunos genes, algunas hormonas o algunos pigmentos de la piel pueden ser
ejemplos de morfógenos”. (Sánchez Garduño, 2013, p. 81).
Marcelo A. Fraile - Arquitectura biodigital
Y es precisamente en este concepto donde se encuentra la genialidad de Turing, al descubrir que, “…si bien
ambos procesos (reacción química y difusión molecular) son homogeneizadores por separado (por lo cual
cualquier irregularidad está condenada a desaparecer), juntos pueden dar lugar a patrones estacionarios
cuando se les combina de una forma especial” (Ledesma Durán, 2012, p. 6).
En palabras de Turing:
“…un compuesto X lleva a cabo una reacción autocatalítica para generar más de ella misma. La velocidad
con la que X se genera dependerá de la cantidad de X preexistente. Pero en este esquema, X también activa
la formación de un compuesto Y que inhibe la formación de más X. Si ambas sustancias se difunden con
distintas velocidades en el medio, los rangos de sus respectivas influencias pueden variar localmente, es decir, X e Y pueden dominar en distintas regiones. El punto clave es precisamente la difusión diferenciada que
permite dominar en distintas regiones. El punto clave es precisamente la difusión diferenciada que permite
que la competencia entre ambos compuestos no sea idéntica en toda la región” (Turing, 1952).
Conceptualmente, los morfógenos son moléculas solubles que se difunden por el organismo de los animales durante el proceso de formación del embrión. Dependiendo de su concentración y de la velocidad de
difusión, será el patrón generado. De este modo, si en una concentración se sobrepasan ciertos valores, la
célula expresará un rasgo determinado (por ejemplo, las manchas oscuras en un leopardo), en tanto que si no
sobrepasa ese umbral, expresará otros (por ejemplo, un color marrón pleno).
Durante la difusión de las reacciones químicas, el sistema presenta cierta inestabilidad (inestabilidad por difusión o inestabilidad de Turing), resultado de patrones de células químicamente diferentes, lo que ocasiono una
serie de perturbaciones espaciales complejas. Esta inestabilidad produce un “…rompimiento de la simetría, a
través del cual el sistema ha de pasar a fin de llegar a un nuevo estado el cual estará caracterizado por: una distribución espacial no homogénea ‘ordenada’ de los morfógenos” (Sánchez Garduño, 2013, p. 81), directamente
relacionada con el tiempo, siendo más estable a medida que este pasa.
Buscando comprobar su teoría, Turing utilizó la computadora “Mark I”, de la Universidad de Manchester, para
explicar cómo células idénticas se podían romper para formar un patrón específico de dos o más tipos de
células espaciales.
A partir del modelo de Turing, fue posible explicar la formación y evolución de los tejidos y órganos durante
el proceso de morfogénesis, lo que permitió cuantificar esa evolución de acuerdo a las variables implicadas.
Para ello, trabajó con un modelo muy restrictivo, utilizando solo ecuaciones diferenciales lineales, para desarrollar un modelo unidimensional con reacciones químicas sencillas. Una herramienta matemática que le 233
permitió establecer cómo un organismo complejo podía desarrollarse sin un plan definido o una dirección
determinada. Un modelo donde las células idénticas se diferencian, cambiando de forma para crear patrones a través de un proceso llamado “reacción difusión intercelular”, responsable de diversos fenómenos
tales como la formación de pigmentación en la piel de ciertos animales, la asimetría de los vertebrados, el
desarrollo de tejidos y cartílagos, entre muchos otros sucesos.
A partir de sus investigaciones, Turing pudo descubrir la existencia de seis tipos de patrones diferentes, los
cuales dependían de los valores de sus parámetros (las condiciones de su entorno).
Tiempo después, inspirándose en los trabajos de Turing, el matemático inglés James Dickson Murray (1921)
llegaría a la conclusión de que la sustancia activadora era la melanina, el pigmento de la piel que confiere
color oscuro a las zonas en donde este aparece.
Murray extendió los estudios de Turing llevándolos a la bidimensión espacial, hecho que le permitió comprobar
dos teoremas:
Parte IV. La génesis de un nuevo paradigma
Teorema 1: “Las serpientes siempre tienen patrones de rayas o anillos,
pero no pueden tenerlos de puntos o manchas (es consecuencia de
suponer que la piel de la serpiente es un rectángulo muy estrecho y
largo)”.
Teorema 2. “No puede haber animales con el cuerpo a rayas y la cola a
manchas, pero si al revés (esto se debe a que el cuerpo es aproximadamente un rectángulo más ancho que la cola, y como el mecanismo
que actúa en todo el cuerpo es el mismo, si los parámetros son tales
que producen rayas en el cuerpo, que es más ancho, también tienen
que dar rayas en la cola, que es más estrecha” (Sánchez, 2012).
En 1995, los científicos Shigeru Kondo y Takashi Miura, investigadores
del King’s College de Londres, publicaron un extenso artículo titulado
“Reaction-Diffusion Model as a Framework for Understanding Biological
Pattern Formation”, en donde confirmaban las teorías propuestas por Turing y descubrían un séptimo patrón diferente. Habían tenido que pasar
Fig. 8. Conceptualmente, los morfógenos son moléculas solubles que se difunden por el organismo de los animales durante el proceso de formación
del embrión.
43 años “…hasta que la química le prestara atención a los procesos de
no equilibrio, y la física-matemática ganara experiencia en el estudio de
problemas no lineales” (Ledesma Durán, 2012, pp. 13-14).
Tiempo después, en 2012, un equipo de investigadores de la misma
institución, dirigidos por el profesor Jeremy Green, publicaría en la
revista científica “Nature Genetics”, un artículo titulado “Periodic stripe formation by a Turing mechanism operating at groeth zones in the
mammalian palate”, en donde reafirmaban los conceptos formulados
previamente por Turing.
La teoría de la catástrofe de René Thom
234
En 1972, el matemático francés René Thom (1923-2002) publicaba su
libro “Stabilité structurelle et morphogénèse”, en donde desarrollaba la
“Teoría de Catástrofe”, como una teoría general sobre la morfogénesis:
que “…consiste en afirmar que un fenómeno discontinuo puede emerger
de algún modo espontáneamente de un medio continuo” (Hayek, 2006).
Como matemático, en su obra Thom se dirigía a los biólogos y a los
especialistas de las ciencias humanas, buscando dar una confirmación
matemática al libro “On Growth and Form” de D’Arcy Thompson: utilizando para ello como herramientas el cálculo diferencial e integral.
Fascinado por las formas naturales y como estas nacen y se desarrollan, Thom consideraba que el problema de la morfogénesis era una
de las cuestiones más relevantes de la biología contemporánea: un
proceso que involucra un continuo movimiento cíclico de nacimientos,
desarrollo y muerte.
En su obra, Thom utiliza la teoría de las singularidades de aplicaciones
diferenciales, empleándolas en modelos naturales. Su idea consistía en
modelar los procesos morfogenéticos en términos matemáticos, “enfatizando los aspectos cualitativos (de ahí el papel clave que ocupa la to-
Marcelo A. Fraile - Arquitectura biodigital
pología), y encontrar y clasificar los aspectos generales que dichos modelos deberían poseer” (Carrillo, 2012,
p. 66).
Desde el punto de vista de la sucesión de las formas, “El crecimiento de un organismo era contemplado como
una serie de cambios graduales provocados por cambios catastróficos en los procesos bioquímicos del sistema”. Sin embargo, existían otros tipos de cambios, los “cambios suaves”, numerosos y muy cercanos entre sí,
imperceptibles individualmente, pero que como parte de un proceso son causantes a su vez “…de la aparición
de otras catástrofes” (Carrillo, 2012, p. 66).
El modelo de Thom busca clasificar solo los accidentes locales de la morfogénesis, aquellos que el matemático francés denomina “catástrofes elementales” (1987, p. 32): esto se debe a la evolución de los estados
internos del modelo, “…cuyo comportamiento cualitativo cambia bruscamente bajo pequeñas variaciones de
los parámetros de control, es decir, de fenómenos discontinuos en su evolución” (Outerelo Domínguez, 2000,
pp. 253-257).
En este sentido, los modelos matemáticos de la morfogénesis propuestos por René Thom no son la descripción de los principios físicos generales, su intención es mostrar las singularidades de un proceso: una discontinuidad del medio estudiado, “…un cambio producido en la disposición, en la superposición, de esas formas
elementales” (1987, p. 27).
Modelo que destierra dos partes consideradas hasta entonces: por un lado la cinemática, cuyo fin era parametrizar las formas o los estados del proceso considerado; y por el otro, la dinámica, que buscaba describir la
evolución temporal entre las formas (1987, p. 27).
Esto queda explicado a partir de un modelo donde la dinámica fuera conocida, esto daría las probabilidades
de transición entre diferentes estados, por ejemplo, de un estado A parametrizado por “a” en P, y un estado B
parametrizado por “b”, consecuencia de “a” en P. Frente a este modelo, el solo dato de una cinemática formalizable implicaría una destrucción en la dinámica (1987, p. 27).
Es lo que Thom denomina las “formas informes”, es decir, “…son a la vez formas, que, sin embargo, no han
logrado una estabilidad estructural, y no-formas que, sin embargo, ocupan un espacio-tiempo o una dimensión”, en otras palabras, “…son fenómenos que asumen un aspecto inestable, mudable, en transformación…
no se pueden localizar con una geometría euclídea, sino que necesitan una geometría ad hoc” (Soriano,
2004, p. 54).
Desde este punto de vista, Thom utiliza el concepto de morfogénesis en un sentido más amplio, in abstracta, 235
es decir “…independientemente del sustrato de las formas y de la naturaleza de las fuerzas que las crean”
(1987, p. 32). Una evolución “…donde el punto m se encuentra con el conjunto cerrado K [generando] una
discontinuidad en la apariencia del sistema, lo cual se interpretará diciendo que hay un cambio de la forma
preexistente, por lo tanto, morfogénesis” (Waddington, 1987, p. 17).
De acuerdo a la teoría de catástrofes propuesta por Thom, existen siete catástrofes elementales: el pliegue,
la cúspide, la cola de milano, la mariposa, las umbílicas elípticas, la hiperbólica y la parabólica. Cada una de
estas “…viene asociada un conjunto de catástrofes, representado morfológicamente por una superficie” (Outerelo Domínguez, 2000, p. 253) y su respectiva ecuación matemática. De este modo, las formas que existen
en la naturaleza podrían ser reconstituidas a partir de la combinación de las catástrofes elementales, una
descripción geométrica mediante un máximo de parámetros, caso contrario el modelo resultaría inestable
(Outerelo Domínguez, 2000, p. 253).
Parte IV. La génesis de un nuevo paradigma
Figuras
Fig. 1. Leyes de Mendel. http://www.icarito.cl/2009/12/las-tres-leyes-de-mendel.shtml/
Fig. 2. Rosalind Francklin / Imagen cristalográfica del ADN. http://www.poramoralaciencia.com/2013/04/16/rosalindfranklin-descubridora-del-adn/
Fig. 3. ADN. http://www.chilebio.cl/?page_id=500
Fig. 4. ARN. https://bioquimicadeln.wordpress.com/2015/12/07/adn-y-arn/#jp-carousel-142
Fig. 5. ARN. https://es.wikipedia.org/wiki/%C3%81cido_desoxirribonucleico
Fig. 6 Proyecto Genoma Humano. https://www.cancer.gov/images/cdr/live/CDR761781-750.jpg
Fig. 7. Thompson, D. https://lismanmex1.files.wordpress.com/2012/10/cranehead-femur.jpg
Fig. 8. Morfógenos. http://francis.naukas.com/files/2010/09/dibujo20100923_pattern_evolution_comparison_numerical_
simulation.jpg
236
Marcelo A. Fraile - Arquitectura biodigital
MODELO BIOLÓGICO DIGITAL
“¡Todo es algoritmo!” . (Chaitin, 2010).
En el área de la biología, la astronomía o la matemática, los investigadores recurren constantemente a la construcción de modelos experimentales, lo que constituye un medio efectivo para poder estudiar los sistemas y de
este modo simular su comportamiento (Fraile, Minafro, & Tatangeli, 2014).
De acuerdo con su definición, “un modelo es una representación de un sistema complejo que se ha simplificado de diferentes maneras para ayudar a entender su comportamiento” (Dartnell, 2012). En general, un modelo
es un objeto que mediante su construcción posibilita el análisis, la descripción y/o la simulación de fenómenos
o procesos que se están examinando.
Los modelos permiten investigar objetos y elementos que de otra forma serían difíciles o imposibles de recrear,
ya sea porque aún no existen o porque su observación directa es imposible. Lo esencial en la construcción
de cualquier modelo radica en el modo más eficiente de reducir el problema planteado, extrayendo las características esenciales del sistema que investiga –con suficiente detalle como para poder predecir válidamente
el comportamiento de este–, e ignorar por completo aquellos datos superfluos. Por ejemplo, un modelo que
estudia la trayectoria de una bala disparada debe tener en cuenta el efecto de la acción de la gravedad, pero
puede ignorar los efectos leves de la resistencia del aire, ya que este último es un efecto de segundo orden
(Darnell, 2007).
Desde este punto de vista, un modelo debe presentar tres características básicas:
a. ausencia de ambigüedad, donde cada uno de los elementos definidores del modelo posean propiedades y
valores específicos;
b. verificabilidad, los resultados deben ser consecuencia de pasos explícitos y comprobables que permitan ser
analizados de un modo individual en todas sus etapas;
c. repetitividad, donde los resultados deben poder ser comprobados tantas veces como se desee.
Para que un modelo tenga éxito, este deberá tener jerarquía y una estructura flexible, lo más simple posible,
capaz de adaptarse a todas las escalas factibles del problema, pudiendo modificarse en todo momento, para
alcanzar los objetivos planteados.
Los modelos presentan tres fases de construcción claramente diferenciadas. La primera fase es el análisis
de los elementos que conformarán el modelo; la segunda fase es la definición de la estructura que el modelo
tendrá, definiendo aquellas situaciones difíciles o imposibles de observar; y finalmente, la tercera fase será la
determinación del conjunto de relaciones, que posibilitará el análisis y la obtención de los resultados finales
(Fraile, Piantanida, & Minafro, 2016).
En los últimos años, con el avance de la ciencia, y en especial con el desarrollo de una nueva generación
de dispositivos informáticos, la biología contemporánea posee los mecanismos para reproducir los procesos
evolutivos desarrollados durante la morfogénesis: modelos biológicos digitales, compuestos por una infinidad
de células binarias, capaces de recrear seres vivos complejos.
A través del uso de herramientas informáticas, es factible procesar en tiempo real las millones de variables que
se generan durante la mitosis celular: un proceso matemático selectivo y adaptativo mediante el cual el genoma de un organismo (la estructura de ADN subyacente a la morfología) se despoja de su naturaleza ‘genérica’
y alcanza un orden superior de especialización (fenotipo) (Kottas, 2013, p. 188): una manifestación física del
código, constatado tanto en la morfología como en los procesos y comportamientos generados.
237
Parte IV. La génesis de un nuevo paradigma
Como un método eficaz de acercamiento, los modelos digitales permiten la replicación de organismos vivos.
Observando lo imperceptible, posibilitan el estudio de algunos de los sistemas más complejos del mundo
natural, visualizando y evaluando elementos fuera del alcance de los sentidos. Una “…armoniosa combinación de partes ‘que conspiran todas juntas para producir este efecto general que nosotros llamamos la vida’”
(Senosian Aguilar, 1998, p. 161).
Algoritmos
De acuerdo al Diccionario de la Real Academia Española, la palabra algoritmo proviene del latín tardío ‘algobarismus’, y este de la abreviación del árabe clásico ‘ḥisābu lḡubār’ (RAE, Asale, 2014).
Otros consideran su origen en una derivación del árabe ‘al Jwarizmi’, sobrenombre que recibía el matemático
árabe Muhammad Ibn Musa abu Djafar Al’Jwarizmi, que vivió entre el 780 y el 850 de nuestra era. Fue considerado el padre del álgebra, al introducir el actual sistema de numeración indoarábigo (Guerrero Conde, 2010, p. 2).
Lo concreto es que, ya sea uno u otro su origen, el término algoritmo, en matemática, es definido como “…un
procedimiento de instrucciones lógicas encadenadas en secuencias definidas, finitas y precisas, para resolver
un problema o realizar una tarea” (Levis, 2009, p. 14). Un conjunto inequívoco de pasos correctamente definidos que, de ser repetidos, se obtendría el mismo resultado.
En el campo específico de la informática, el matemático ruso Andréi Andréyevich Márkov (1856-1922) precisa el concepto de algoritmo “…como una ‘prescripción exacta, que define un proceso de computación, que
conduce, de varios datos iniciales, a un resultado deseados’” (Broadbent, 1984, p. 139). Por su parte, para el
teórico ruso Peter Weibel (1944) los algoritmos son procesos, un conjunto de instrucciones para realizar una
acción, hecho por un numero finito de reglas; una secuencia determinada de estrictas instrucciones elementales que definen el proceder de la solución a un problema específico.
Para Markov, existen tres factores importantes que deben tenerse en cuenta en el diseño de un algoritmo. En
primer lugar, las instrucciones introducidas: su resultado quedará subordinado a si está definido correctamente o no; en segundo lugar, un conjunto preciso y limitado de entradas: donde cada una debe ser diferente, y
requerir una condición previa; finalmente en tercer lugar, una salida perfectamente definida, ya que en caso de
presentar ambigüedades, se producirán mensajes de error (Tedeschi, 2014, pp. 15-30).
Comúnmente, los algoritmos son utilizados para realizar una tarea en particular, a través de un listado finito
238 de instrucciones básicas predefinidas (Tedeschi, 2014, pp. 15-30). Para ello, el algoritmo divide el problema en
una serie de simples instrucciones que se repiten y permiten ser calculadas con facilidad.
En este sentido, una receta de cocina podría ser entendida como un algoritmo. Por ejemplo: “Podemos establecer un procedimiento para cocinar un pastel de chocolate, basado en una simple lista de instrucciones”
(Tedeschi, 2014, pp. 15-30).
Pese a que comúnmente se asocian los algoritmos a los sistemas digitales, estos son independientes de las
computadoras. Originariamente, los algoritmos fueron utilizados como herramientas para resolver problemas
matemáticos. Para algunos autores, el primer algoritmo escrito para una computadora data de 1842 y fue
escrito por la matemática y escritora británica Ada Augusta Byron King (1815-1852), un algoritmo para ser
utilizado con la máquina analítica de Babbage.
Con la llegada de las computadoras y los innovadores trabajos de Alan Turing y Von Neumann, el procesamiento de los algoritmos se hizo más fluido y veloz, al desarrollar un nuevo modo de elaborar el conocimiento.
Marcelo A. Fraile - Arquitectura biodigital
Primera generación. Los autómatas celulares de Neumann
Los autómatas de Von Neumann pueden ser definidos como un sistema organizado y descentralizado, desarrollado por el matemático húngaro-estadounidense John von Neumann (1903-1957), quien se destacaría por
sus contribuciones en materia de máquinas lógicas y computadoras.
Bajo el título General and Logical Theory of Automata1, Neumann presentó su tema el 20 de septiembre de
1948 en el Hixon Symposium de Pasadena, California: un modelo teórico “autorreplicante”, que permitía encontrar soluciones posibles a problemas simples, repetitivos y prolongados en el tiempo.
Para Neumann este modelo conceptual debía estar compuesto por dos partes: la primera sería el constructor, capaz de utilizar los elementos del medio para autorreplicarse; y la segunda, un programa encargado de
desarrollar las instrucciones necesarias para fabricar el modelo.
Tomemos un ejemplo, imaginemos una maquina productora de bicicletas con la capacidad de autorreplicarse,
es decir, copiarse a sí misma de forma autónoma y crear nuevas generaciones de sí misma, utilizando para
ello la materia prima que toma del ambiente que la rodea.
Si la primera máquina producía ‘g’ número de bicicletas en un determinado período de tiempo (ciclos), en ‘t’
cantidad de ciclos se obtendrá ‘t x g’ número de bicicletas.
Supongamos ahora una segunda etapa, en que la maquina inicial, además de producir bicicletas, produce
una segunda máquina (segunda generación); en este punto, estaríamos ante un nuevo valor de ‘g’, considerablemente menor que el inicial, ya que parte del tiempo de producción de bicicletas lo debería destinar para la
producción de esta segunda máquina. Sin embargo, al cabo de un tiempo (o generaciones), dispondríamos de
dos máquinas trabajando, y a medida que el proceso continuara, el número de máquinas aumentaría de dos a
cuatro, luego a ocho máquinas, etc. Y aunque el rendimiento de las máquinas fuera menor al inicial producido
por el primer artefacto, la producción, ‘g’ numero de bicicletas, habría crecido exponencialmente.
Von Neumann había comenzado el desarrollo de sus autómatas autorreplicantes a partir de ecuaciones diferenciales parciales, sin embargo, al poco tiempo decidió abandonar este camino ante la imposibilidad de
encontrar “reglas explícitas y claras que pudiera aplicar en los autómatas autorreplicantes”.
De acuerdo con el ingeniero estadounidense Arthur W. Burks (1915-2008), fue el matemático polaco Stanislaw
Ulam (1909-1984) quien sugirió a Von Neumann que utilizara un sistema dinámico que evolucionaba a pasos
discretos, para el desarrollo de los autómatas autorreplicantes. En otras palabras, un sistema capaz de sopor- 239
tar cambios en el tiempo. Siendo el tiempo un valor constante, de allí que su escala sea de números enteros
(Peinado & García, 2008).
Ulam estaba estudiando el crecimiento de los cristales y se divertía diseñando juegos de patrones para sus
compañeros de los Álamos. Estos consistían en desarrollar modelos cambiantes, a partir de establecer reglas matemáticas fijas, lo que generaba crecimientos similares a los existentes en la naturaleza. Ulam llamó
a estos patrones “objetos geométricos de forma recursiva definida”: que en esencia se trataba de un modelo
conceptual desarrollado a partir de una grilla infinita similar a un tablero de ajedrez, donde cada patrón o célula
podía tener forma cuadrada, triangular o hexagonal. Tanto el crecimiento como los cambios de estado de los
patrones eran regidos por reglas simples, que dependían de sus células vecinas.
Ulam propuso a Neumann un sistema descentralizado, que podía ser moldeado a partir de una malla regular:
una cuadrícula de evolución n-dimensional, comúnmente llamado lattice, donde cada división homogénea
o celda representa una célula. El modelo debía poseer un número finito de reglas simples y comunes de
1. Von Neumann, J. (1951). The general and logical theory of automata, cerebral mechanisms in behavior. New York: John
Wiley & Sons, Inc, pp. 1-31.
Parte IV. La génesis de un nuevo paradigma
comportamiento, es decir, el modo en que cada celula evolucionaría, de
acuerdo a la relación de esta con sus vecinas.
Cada célula podrá adquirir un conjunto finito de estados a través del
tiempo, que dependerá de su situación previa y de su relación con sus
vecinas: un valor temporal nuevo, elaborado a partir de estos argumentos y aplicado durante su evolución (Peinado & García, 2008).
Ahora bien, conceptualmente, los autómatas celulares están compuestos por un número infinito de números enteros, situación que se transformaría en un impedimento a la hora de su aplicación práctica. Es por esta
razón que se concibió lo que se conoce como “condición de frontera”:
una situación que reduce su vecindad en aquellas células de borde. Pudiendo presentarse cuatro alternativas2:
a) frontera abierta, donde las células que están fuera de la cuadrícula
poseen el mismo valor;
b) frontera reflectora, donde las células que están fuera de la cuadrícula
poseen el mismo valor que las células de borde;
c) frontera periódica, donde se considera la cuadrícula como una cinta
continua, y de este modo el valor de las células también será continuo;
y finalmente
d) sin fronteras, donde la cuadrícula crecerá de acuerdo con las necesidades del autómata celular.
Para 1952, Von Neumann ya había completado su modelo de autómata
Fig. 1. Autómatas celulares. En un modelo unidimensional, es decir un mo-
240 delo con vecindad de grado 1, solo se
tienen en cuenta las células inmediatas o más cercanas, para ser utilizadas dentro de la ecuación. Esto quiere
decir que, al tratarse de modelos de
una sola dimensión, cada célula solo
podrá tener 2 vecinos (1 arriba y 1
celular. Este presentaba una configuración inicial, a partir de un “genoma” base, un sistema dinámico discreto, un mecanismo capaz de copiar
el genoma original, utilizando para ello los recursos reunidos inicialmente. De esta manera, el conjunto de células lograba una autorreplicación
dentro de un espacio básico de evolución, según una determinada expresión matemática que es sensible a los estados de las células vecinas, la cual se le conoce como “regla de transición local”.
Por ejemplo, en un modelo unidimensional, es decir un modelo con vecindad de grado 1, solo se tienen en cuenta las células inmediatas o más
cercanas, para ser utilizadas dentro de la ecuación. Esto quiere decir que,
al tratarse de modelos de una sola dimensión, cada célula solo podrá
tener 2 vecinos (1 arriba y 1 abajo, o 1 a la izquierda y 1 a la derecha).
abajo, o 1 a la izquierda y 1 a la derecha).
Imaginemos entonces un autómata celular unidimensional con un grado
de vecindad igual a 1, donde cada célula solo presente dos estados (0
y 1), una frontera periódica, un tamaño de 10 células y una función de
transición determinada de acuerdo a:
-
Si ambas células vecinas tienen el mismo valor, en este caso el
valor de la célula a la que se aplicará la función cambiará.
2. Las 5 alternativas fueron consultadas de Peinado, J.; García, J. M. “Autómatas
Celulares”, abril 2008, En www.enelnombredetux.com/project292f.html?project=autcel (consultado 04/05/2017).
Marcelo A. Fraile - Arquitectura biodigital
-
Si ambas células vecinas tienen diferentes valores, en este caso el estado de la célula a la que se
aplicará la función se mantendrá igual.
Cuadro resumen
Un autómata celular posee:
-
Una cuadrícula regular que podrá ser unidimensional, bidimensional, o n-dimensional. Donde cada celda es homogénea y recibe el nombre de célula;
-
Un conjunto de estados: cada célula podrá tomar un único valor de un numero finito de estados;
-
Una configuración inicial, es decir, el estado inicial de cada una de las células dentro del espacio;
-
Una serie de vecinos, o células adyacentes a la célula estudiada, así como su posición relativa;
-
Una función de transición local, que representa la regla de evolución que determina el comportamiento del autómata celular, calculado a partir del estado de cada célula y de los estados de sus células vecinas.
Ahora bien, en el modelo bidimensional utilizado por Von Neumann para el desarrollo de sus autómatas el
número de vecinos se incrementa considerablemente y llegan a ser 4 (1 arriba, 1 abajo, 1 a la izquierda y 1
a la derecha).
De este modo, estamos ante un sistema teórico y matemático autorreplicante: “…no solo un plan predeterminado de comportamiento, sino también la capacidad de reproducirse a sí mismo” (Vrachliotis, 2008, pp.
232-261).
Von Neumann describe el procedimiento en su libro Theory of Self-Reproducing Automata3. Un complejo
proceso biológico-matemático de adaptación y crecimiento, formalmente representado y explicado a escala
biológica-molecular: un conjunto de células capaces de adquirir distintos estados o valores en el tiempo.
Más tarde, el modelo conceptual desarrollado por Von Neumann e Ulam, se haría más accesible a través de
los trabajos del matemático británico John H. Conway (1937) y su “Juego de la Vida”.
Segunda generación. La vida artificial: el juego de la vida de Conway
Uno de los autómatas celulares más utilizados en el mundo matemático, dada su simpleza, es The Game of
Life, o Juego de la Vida. Fue inventado en 1970, por el matemático británico de la Universidad de Cambridge 241
John Horton Conway (1937).
El juego de la vida hizo su aparición pública en la revista de divulgación científica Scientific American, de octubre de 1970, con el título “The fantastic combinations of John Conway’s new solitaire game ‘life’”, en la columna
de juegos matemáticos del filósofo de la ciencia estadounidense Martin Gardner (1914-2010).
También conocido como Object life, el juego de la vida, conceptualmente, presenta idénticos principios que
los autómatas celulares de Von Neumann, pero con reglas mucho más simples: se trata de un juego de cero
jugadores ya que una vez establecido el estado inicial no necesita ninguna entrada de datos posteriores.
Una de las modificaciones que desarrolla Conway es establecer una vecindad diferente. Conocida como vecindad de Moore, consiste en aplicar 8 vecinos a cada una de las células: a las cuatro vecindades de Von
Neumann, le agrega las 4 diagonales respectivas.
Un sistema dinámico compuesto por un número determinado de células, las cuales se ubican en un espacio
bidimensional con una condición de frontera periódica, y donde cada una de estas puede tener alguno de los
3. Publicado póstumamente por Arthur Walter Burks en 1966. Neumann había fallecido en 1957.
Parte IV. La génesis de un nuevo paradigma
dos estados posibles. Durante el proceso, cada célula interactúa con sus
células vecinas y, según los resultados de esta interacción, modifica su
vitalidad y su comportamiento.
El juego tiene apenas tres sencillas reglas para su funcionamiento:
-
Nacimiento: una célula muerta es reemplazada por una viva, si dicha
célula tiene exactamente 3 vecinos vivos.
-
Muerte: una célula viva es reemplazada por una muerta, si dicha
célula no tiene más de 1 vecino vivo (muerte por aislamiento), o si
tiene más de 3 vecinos vivos (muerte por sobrepoblación).
-
Supervivencia: una célula viva permanecerá viva, si tiene 2 o 3 vecinos vivos.
De acuerdo al comportamiento celular, se han podido descubrir y catalogar algunos tipos de patrones, los más comunes son4:
-
Estáticos, donde los patrones no varían de una generación a la siguiente, es decir no producen nacimientos o muertes.
-
Recurrentes, cuando los patrones varían de una posición a otra indefinidamente, es decir tienen un comportamiento periódico.
-
Con movilidad o reproductores, cuando los patrones se reproducen
y se desplazan por toda la cuadrícula.
-
Matusalenes, cuando los patrones pueden evolucionar durante mucho tiempo o generaciones, tardan muchos pasos en estabilizarse.
Con el tiempo se fueron encontrando otras configuraciones tales como
‘Lightweight spaceship’, ‘pulsar’, ‘blinker’, ‘pentadecathlon’, etcétera.
Tiempo después, el matemático estadounidense Carter Bays elaboró
un modelo sucesorio del juego de la vida, desarrollado en un espacio
242
tridimensional.
El modelo, mucho más complejo, continúa utilizando la vecindad de Moore, pero a un nivel tridimensional, y llega a desarrollar veintiseis células
vecinas, las cuales presentan diferentes estados y patrones evolutivos.
Fig. 2. Ejemplo con valor inicial
0001010011.
El juego de la vida desarrollado por Conway permite realizar cómputos
universales y puede ser utilizado en infinidad de tareas, como por ejemplo: el reconocimiento óptico de caracteres o la eliminación de ruidos en
el procesamiento de imágenes.
Pese a sus reglas sencillas, este algoritmo puede llegar a evolucionar a
resultados verdaderamente complejos.
4. Las 4 alternativas fueron consultadas de Peinado, J.; García, J.M. “Autómatas
Celulares”, abril 2008, En www.enelnombredetux.com/project292f.html?project=autcel (consultado 04/05/2017).
Marcelo A. Fraile - Arquitectura biodigital
Tercera generación. De los autómatas celulares
a la IA
Los autómatas celulares de Stephen Wolfram
En 1973, el británico Stephen Wolfram (1959)5 –doctorado en Física
Teórica por el California Institute of Tecnology–, a la edad de 20 años,
comenzó a investigar los sistemas complejos a partir del uso de las primeras computadoras. Rápidamente, sus investigaciones lo convirtieron
Fig. 3. Patrones recurrentes más
usuales.
en un líder en el emergente campo de la informática científica.
A finales de 1981, Wolfram centró sus indagaciones en los orígenes de la
complejidad existente en la naturaleza, en especial de aquellos patrones
complejos que parecían trasgredir la segunda ley de la termodinámica6.
Fig. 4. Patrones fijos o estáticos.
Para ello, se embarcó en el estudio del comportamiento de un tipo de
programa informático: los autómatas celulares. Un modelo matemático
simple determinista y discreto, capaz de ser utilizado en la investigación
de sistemas físicos, biológicos y computacionales.
Para sus primeros trabajos, Wolfram utilizó autómatas celulares unidimensionales: un sistema elemental lineal, dividido en celdas idénticas
(células), donde cada una de estas podía alcanzar el valor 0 o 1.
Durante el proceso, cada célula evoluciona de manera determinista en el
tiempo, de acuerdo con un conjunto de reglas definidas previamente, y
que implica el valor de sus vecinos más cercanos: esto se conoce como
barrio, y en el caso del modelo unidimensional quedará limitado a dos
vecinos adyacentes (uno a la izquierda y uno a la derecha).
El proceso comienza con una línea de células que se conoce como estado inicial, a partir del cual el autómata celular comenzará a trabajar
un período determinado de tiempo que se conoce como ‘generaciones’.
El estado inicial corresponderá con el valor 0, es decir, la generación 0.
A continuación, es necesario definir el algoritmo que determinará el valor de cada célula, en un momento ‘t’ determinado. En otras palabras, un
algoritmo que determine el valor de cada célula en la generación 1, en
la generación 2, etcétera.
La reducción del modelo de Wolfram a un sistema unidimensional permitió
investigar exhaustivamente todas las posibles configuraciones que podía
alcanzar una célula en relación con sus células vecinas. Para esto, definió
el barrio a través de un sistema binario de tres celdas que limitarían su valor a 8 posibles combinaciones o estados, dentro de un desarrollo lineal7.
5. Entre 1979 y 1981, Wolfram inició la construcción del SMP (Symbolic Manipulation Program), el primer sistema de álgebra para computadora. A la edad de 21
años, ganó el premio MacArthur “Genius”, lo que lo convirtió en el científico más
joven en recibir ese premio. En 1986 inició Wolfram Inc, una empresa de computadoras que en 1988 comenzó a comercializar “Mathematica”, un software para el
desarrollo de matemática.
6. La segunda ley de la termodinámica dice que: cuando una parte de un sistema
cerrado interactúa con otra parte, la energía tenderá a dividirse por igual hasta
que el sistema recobre nuevamente el equilibrio térmico.
7. Wolfram definió a este autómata celular como Regla 110. Esto se debe a la
243
Parte IV. La génesis de un nuevo paradigma
111 110 101 100 011 010 001 000
A continuación, definió el resultado para cada configuración de barrio
111 110 101 100 011 010 001 000
#
#
#
#
#
#
#
#
0
1
1
0
1
1
1
0
Ahora bien, el modelo requería, además, definir qué valor tomarían en
la siguiente generación las células de los bordes: estas, al carecer de un
vecino, quedaban exceptuadas de las reglas anteriores.
Para este caso, es posible establecer tres soluciones:
a) Bordes constantes: los bordes mantienen su valor de estado, sea
0 o 1.
b) Bordes continuos: se establece un sistema donde la célula del
borde izquierdo es vecina del derecho y viceversa, lo que crea la
apariencia de una red infinita.
c) Bordes con diferentes barrios y reglas: se trata de un barrio especial de dos células, con valores particulares.
Y dado que cada célula puede presentar dos estados (0 o 1), y como
existen 8 posibles combinaciones o estados, obtenemos un total de 28,
es decir 256 autómatas celulares elementales.
Fig. 5. Wolfram, definió el barrio a través de un sistema binario de tres celdas que limitarían su valor a 8 posibles combinaciones o estados, dentro
de un desarrollo lineal.
244
secuencia binaria ‘01101110’, que corresponde con el numero décima 110. En el
año 2000, el joven matemático estadounidense Matthew Cook (1970) publicó las
pruebas de que este algoritmo era un autómata Turing Completo, es decir, una
máquina que puede computar todas las funciones computables de una máquina
de Turing, capaz de emularse a sí misma, moviéndose en la frontera entre la
estabilidad y el caos.
Marcelo A. Fraile - Arquitectura biodigital
Posteriormente, Wolfram clasificó en cuatro clases el comportamiento de los autómatas celulares unidimensionales de un modo cualitativo8:
-
Clase I: son aquellos que evolucionan con una configuración estable y homogénea. Un patrón
donde las aleatoriedades iniciales desaparecen, y todas las células llegan a un valor uniforme.
-
Clase II: son aquellos que evolucionan hasta una estructura estable o periódica. Un patrón donde
parte de la aleatoriedad inicial puede permanecer.
-
Clase III: son aquellos que evolucionan hasta llegar a un patrón caótico. Una estructura donde la
estabilidad inicial es rápidamente destruida.
-
Clase
IV:
son aquellos que evolucionan en estructuras aisladas que presentan comportamien-
tos complejos. Un sistema intermedio entre los completamente caóticos y los completamente
ordenados.
Finalmente, en 1985, Wolfram publicó los resultados de sus investigaciones bajo el título Two-Dimensional
Cellular Automata9.
Desde un punto de vista matemático, para Wolfram, tanto el Juego de la Vida, como la regla 110 pueden ser
considerados autómatas celulares tipo 4. Es decir, que pese a lo simple y determinista de sus reglas, son capaces de generar un comportamiento complejo. Un modelo capaz de superar el ‘test de aleatoriedad’ siendo
su comportamiento impredecible10.
De la misma manera, este sistema es capaz de replicar cualquier sistema existente en la naturaleza por medio
de algoritmos. Una nueva concepción de la ciencia que involucra la biología y la informática.
Sin embargo, para que esto sea posible, los cálculos complejos no pueden ser reducidos o seccionados, no
existen resultados intermedios de cálculos. La única forma de obtener resultados ciertos es que el sistema modelado atraviese todas sus etapas hasta el final, es decir, que el sistema evolucione. A este concepto, Wolfram
lo llamo “irreducibilidad computacional”.
A partir de los resultados obtenidos, Wolfram pudo enunciar lo que denominó el “principio de equivalencia
computacional”, en donde establece que los sistemas que están en el mundo natural pueden realizar cálculos
hasta un límite máximo determinado por su complejidad. Si el grado de complejidad de un sistema es finito, el
sistema computacional puede ser representado mediante un modelo de autómata computacional. Por tanto,
todo sistema complejo puede ser representado y eventualmente predecirse mediante un único algoritmo com- 245
putacional (López Fernández, 2009, p. 50).
El mismo año que Wolfram publicaba Two-Dimensional Cellular Automata, el científico estadounidense Christopher Langton (1949) propuso utilizar los autómatas celulares para el estudio de la vida artificial.
Sin embargo, para Wolfram, las teorías de la selección natural de Darwin no pueden explicar las características complejas de los organismos. Y, aunque los algoritmos genéticos constituyen una base matemática de las
teorías de Darwin, “…el enfoque darwiniano de la selección natural, contrariamente a lo que se cree, reduce
la complejidad más que la genera” (2002, p. 392).
En 2002, Wolfram publica A New Kind of Sciencie11, donde describe empíricamente la teoría de los autómatas
celulares: un conjunto pequeño de elementos con reglas simples, pero con la capacidad de producir resulta8. En 1984, Wolfram planteó un estado inicial aleatorio o estado 0.
9. Packard, N., Wolfram, S. (1985). Two-Dimensional Cellular Automata. Journal of Statistical Physics, Vol. 38. Nos. 5/6.
10. Aplicando esta lógica a todas las células, y definiendo el color blanco para el 0 y el color negro para el 1, es posible
obtener el triángulo de Sierpinski: una forma fractal descubierta en 1919 por el matemático polaco Waclaw Sierpinski
(1882-1969).
11. Wolfram, Stephen, A New Kind of Science, Wolfram Media, United States, 2002
Parte IV. La génesis de un nuevo paradigma
dos complejos. En sus escritos, describe cómo todos los procesos producidos por el hombre o por la naturaleza pueden ser verificados a través de cálculos computacionales, o ser reducidos a algoritmos que calculen
la interacción entre pequeños programas.
De cualquier forma, para finales de los años 90, la utilización de los autómatas celulares se había extendido
a numerosas disciplinas que incluían el modelado de flujos vehiculares y peatonales, el modelo de flujos de
gases y líquidos e incluso la creación de mutaciones a través de la selección y la herencia.
Christopher Langton y el concepto de vida artificial
En 1987, con motivo de la 1.st International Conference on the Synthesis and Simulation off Living Systems, organizada por el Laboratorio Nacional de Los Alamos, Nuevo México, el científico estadounidense Christopher
Langton (1949) acuñó el término “Artificial Life” (vida artificial) y describe los intentos del hombre buscando “…
modelar y explicar la vida mediante la creación de sistemas artificiales que exhiben la conducta de los seres
vivos, definiendo su comportamiento en función de un grupo de reglas obtenidas mediante modelos de simulación y uso de herramientas de Ingeniería Computacional” (López Salinas, 2011, p. 3).
Para Langton, la Vida Artificial es una nueva disciplina que estudia la vida natural, tratando de recrear los
fenómenos biológicos, a partir del desarrollo de modelos matemáticos computarizados y de otros medios
“artificiales” tales como el hardware o la bioquímica (1991, pp. 189-241).
Un acercamiento a la biología sintética, a través de la aplicación de los conocimientos biológicos al campo de
la tecnología y la computación: para ello se utilizan autómatas que se autorreproducen, programas que utilizan
los mecanismos de evolución darwiniana para simular el comportamiento biológico. Lamentablemente, hasta
el momento, sus resultados no son absolutamente equiparables a los existentes en el mundo natural.
Entre sus antecedentes más cercanos, podría rastrearse en las ideas elaboradas por Alan Turing durante la
década del 40, quien había postulado la creación de una máquina ideal, compuesta por una cinta infinita dividida en cuadros, sobre la que se realizaban determinadas operaciones: “…la máquina dispone de una cabeza
lectora posicionada en cualquier celda de la cinta, donde lee el contenido de dicha celda e interpreta ciertas
instrucciones que definen el siguiente comportamiento de la cabeza” (López Salinas, 2011, p. 6).
En 1984, Langton creó una especie particular de vida artificial: conocido como “los bucles de Langton”, se trata
de un sencillo sistema que intenta reproducir la complejidad del autómata celular de Von Neumann.
246
El material genético va rotando en forma de bucle cuadrado, compacto, con un factor de ¼: el proceso solo
requiere de las instrucciones necesarias para generar un lado y una esquina –que al emitirla cuatro veces es
posible obtener la copia de un bucle completo–, más un quinto elemento capaz de transmitir su propia autodescripción. En este punto, el bucle presenta un brazo que se prolonga ligeramente con el objeto de alejarse
lo necesario para comenzar la construcción de una copia (Ramos Salavert, 1995, p. 140).
La construcción se propaga a través del camino en sentido contrario a las agujas del reloj, hasta llegar a un
punto de unión en donde el material se duplica entre las dos ramas existentes en ese punto: una se dirige
hacia el extremo del brazo y produce su alargamiento; en tanto que la otra realimenta el bucle, de forma
que cuando un juego de señales se consume, ya existe otra esperando para transmitirlo (Ramos Salavert,
1995, p. 140).
De este modo, el número de instrucciones se reduce a dos:
Instrucción 1: indica al brazo de construcción que avance.
Instrucción 2: indica al brazo de construcción que gire 90º.
Marcelo A. Fraile - Arquitectura biodigital
Luego de cuatro interacciones, el brazo se cierra sobre sí mismo y genera el proceso de desconexión de los dos bucles. Posteriormente, una
serie de estados especiales construirá un nuevo brazo a cada uno, y se
obtendrá finalmente la reproducción completa del patrón inicial.
Llegado a este punto, tanto el patrón “descendiente” como el patrón
“progenitor” continuarán reproduciéndose hasta que sus cuatro lados
queden ocupados por otras estructuras. “De este modo la configuración
pronto presenta la apariencia de una colonia en crecimiento, vagamente
semejante a las coralinas, pues las estructuras que no tienen espacio
para reproducirse quedan inactivas en su parte central” (Ramos Salavert, 1995, p. 140).
Dos años después, en 1986, Langton desarrolló lo que se conoce como
Langton’s Ant (la hormiga de Langton): una máquina de Turing bidimensional, que opera sobre una grilla cuadrada bidimensional, donde cada
celda puede recibir un color blanco o negro.
Sobre la grilla, se desplaza una célula denominada hormiga, una cabeza lectora e intérprete de los estados que va encontrando a su paso.
Fig. 6. El número de instrucciones se
reduce a dos:
Instrucción 1: indica al brazo de construcción que avance.
Instrucción 2: indica al brazo de construcción que gire 90º.
Luego de cuatro interacciones, el brazo se cierra sobre sí mismo y genera
el proceso de desconexión de los dos
bucles.
Cada hormiga puede moverse en sentido vertical u horizontal, pero siempre de a una celda por vez, siguiendo un conjunto de simples reglas:
-
La hormiga siempre se mueve hacia adelante, una celda
por vez.
-
Si la hormiga encuentra una celda blanca, la pinta de negro,
gira 90º a la derecha y avanza una celda.
-
Si la hormiga encuentra una celda negra, la pinta de blanco,
gira 90º a la izquierda y avanza una celda.
A su vez, de acuerdo con su comportamiento, una hormiga clásica puede presentar tres tipos de pautas básicas:
-
Simplicidad: en los primeros cientos de pasos, la hormiga
crea patrones sencillos y frecuentemente simétricos.
-
Caos: en esta segunda etapa, después de varios cientos de
pasos, surge un patrón amplio e irregular donde la hormiga
sigue un camino azaroso hasta los 10.000 pasos.
-
Orden emergente: finalmente, después de los 10.000 pasos,
la hormiga comienza a construir una avenida, un patrón de
104 pasos que se repite indefinidamente.
La hormiga de Langton puede ser definida como un autómata celular,
un sistema, donde la grilla se pinta de blanco o negro, en tanto que la
hormiga adquiere 8 diferentes colores, dependiendo del color de la celda
en que se posicione y de la dirección en la que se mueva.
247
Parte IV. La génesis de un nuevo paradigma
Los sistemas de Lindenmayer (Sistemas -L)
Los Sistemas de Lindenmayer, mejor conocidos como “Sistemas-L”, fueron descubiertos en 1968 por el biólogo y botánico teórico de la Universidad de Utrecht, el húngaro Aristid Lindenmayer (1925-1989). En
sus estudios, Lindenmayer buscaba entender el comportamiento de las
plantas y problemas tales como el tipo de información que le permitía
a una semilla tomar determinados elementos para usarlos en su crecimiento y descartar otros.
Inicialmente, el botánico húngaro comenzó trabajando con levaduras y
hongos, estudiando los patrones de crecimiento de estos sistemas. Estudios que le llevaron a inventar, en términos generales, una técnica capaz de modelar y simular el crecimiento de las plantas, lo que proporciona una descripción formal del desarrollo de organismos multicelulares
simples (López Salinas, 2011, p. 14).
Fig. 7. “De este modo la configuración
pronto presenta la apariencia de una
colonia en crecimiento, vagamente semejante a las coralinas, pues las estructuras que no tienen espacio para
reproducirse quedan inactivas en su
parte central” (Ramos Salavert, 1995,
p. 140).
248
En realidad, fueron dos estudiantes de Lindenmayer, Ben Hesper y Pauline Hogeweg, quienes en 1970 fueron los primeros en darse cuenta
del potencial de los Sistemas-L para representar vegetación. Hesper y
Hogeweg crearon el primer programa que, a partir de una secuencia
de 5.000 caracteres desarrollados mediante sistemas-L, generaron algo
que se parecía mucho a una hoja vegetal (Campos Muñoz, 2011, p. 2).
Conceptualmente, un sistema-L es un lenguaje, un conjunto de reglas
y símbolos utilizados para modelar los procesos de crecimiento de las
plantas. Para poder realizar esto, el sistema utiliza un concepto denominado de reescritura en cadena: “…una técnica para definir objetos complejos reemplazando sucesivamente ‘partes’ de un objeto inicial simple
(el axioma), mediante un conjunto de reglas de reescritura o de producción” (Campos Muñoz, 2011, p. 2).
En esencia, los sistemas-L son sistemas paramétricos definidos mediante un alfabeto, un conjunto de símbolos fijos, un estado inicial del
sistema y, finalmente, por un conjunto de reglas de producción.
-
Alfabeto: conjunto finito de símbolos, utilizados para componer
cadenas.
-
Conjunto de símbolos fijos: son las constantes o los símbolos
terminales.
-
Estado inicial del sistema: es el axioma o cadena que describe
el estado inicial.
-
Conjunto de reglas de producción: son las transformaciones que
serán aplicadas al axioma y a las sucesivas cadenas generadas, es decir, definen cómo las variables son reemplazadas por
combinaciones de constantes y otras variables.
Marcelo A. Fraile - Arquitectura biodigital
A diferencia de la gramática de Chomsky, donde la producción se aplicaba de un modo secuencial, en los sistemas propuestos por Lindenmayer, las reglas de producción se aplican simultáneamente a todos los
símbolos de la cadena, “…sea esta el axioma o las cadenas resultantes
de cada derivación. Esta propiedad refleja el origen biológico de los sistemas-L, ya que los organismos vivos crecen simultáneamente en ‘todas’
sus partes y no secuencialmente” (Campos Muñoz, 2011, p. 3).
Sin embargo, con cada interacción, el sistema aumenta su complejidad,
situación que, en modelos con demasiadas derivaciones, puede ocasionar un consumo excesivo de tiempo y un aumento exponencial del nivel
de recurrencia del modelo.
De acuerdo con el tipo de reglas utilizadas, los cinco tipos más comunes
son: determinista, no determinista, libre de contexto, sensitivo al contexto, estocástico.
-Determinista: son los más sencillos. Reciben esta clasificación aquellos
sistemas en donde existe exactamente una regla para cada símbolo.
Un sistema determinista y libre de contexto es denominado como
Sistema-D0L (D por determinista, 0 por independiente del contexto y
L por Lindenmayer).
Estos sistemas, trabajan bajo dos condiciones: “1) El lado izquierdo
de la regla de producción debe ser un solo símbolo del alfabeto; 2)
Un mismo símbolo no puede producir distintas cadenas del lenguaje”
(Campos Muñoz, 2011, p. 4).
-No Determinista: reciben esta clasificación cuando hay al menos un
símbolo al que le corresponde más de una regla.
-Libre de contexto: reciben esta clasificación cuando las reglas se aplican
sobre los símbolos individuales, sin tener en cuenta a sus vecinos.
Fig. 8. El sistema utiliza un concepto
denominado de reescritura en cadena: “…una técnica para definir objetos
complejos reemplazando sucesivamente ‘partes’ de un objeto inicial simple (el axioma), mediante un conjunto
de reglas de reescritura o de producción” (Campos Muñoz, 2011, p. 2).
249
Parte IV. La génesis de un nuevo paradigma
-Sensitivo al contexto: son los opuestos al anterior, reciben esta clasificación cuando las reglas se aplican
sobre los símbolos individuales, pero dependiendo también de sus vecinos.
-Estocástico: reciben esta clasificación cuando hay varias reglas (mutaciones y aleatoriedades) para un mismo
símbolo, y cada una de estas es elegida con una probabilidad determinada.
En esencia, un sistema-L no genera ningún tipo de gráfico, solo cadenas de símbolos. Es por esto que, en
1984, Alvin Smith pensó en asociar estos símbolos con un sistema de computación vectorial, capaz de representar gráficamente los procesos. Para ello, empleó el lenguaje LOGO, un lenguaje muy simple inventado por
el matemático estadounidense Seymout Papert (1928-2016) para que los niños aprendieran a pensar en las
categorías geométricas.
Un ejemplo interesante de la utilización de los sistemas-L es el modelo para reproducir el crecimiento de las
algas, donde:
Axiomas: F, M
Constantes ninguna
Inicio F
Reglas (F=MF), (M=F)
Generación
Proceso
Resultado
0
F
F
1
F FM
FM
2
FMFMF
FMF
3
FMFFMFFM
FMFFM
4
FMFFM FMFFMFMF
FMFFMFMF
5
FMFFMFMF FMFFMFMFFZFFZ
FMFFMFMFFZFFZ
Ahora bien, cuando se mide la longitud de cada cadena, se obtiene la siguiente secuencia de números: 1, 1,
2, 3, 5, 8, 13, … (la serie Fibonacci).
Los sistemas-L pueden ser empleados para representar una gran variedad de organismos: la reproducción de
células, el crecimiento de las ramas de un árbol, o la mutación de una forma geométrica.
250
Cuarta generación. Los algoritmos genéticos
Los algoritmos genéticos de John Henry Holland
A mediados del siglo XX, diversos investigadores del campo de la bioquímica y la biología comenzaron a utilizar computadoras digitales con el objeto de realizar simulaciones genéticas.
Uno de los primeros fue el biólogo inglés Alex S. Fraser (1923-2002) que, en 1957, publicó un trabajo titulado
“Simulation of genetic systems by automatic digital computers”12, un texto donde plantea de un modo innovador
el uso de la modelización por computadora para estudiar el tema de la evolución de los sistemas biológicos.
Pronto estos conceptos se extenderían hacia las diversas ramas del conocimiento y buscarían desarrollar sus
investigaciones a partir de analogías con los sistemas naturales y el uso de modelos computacionales.
12. Fraser, A. (1957). Simulation of genetic systems by automatic digital computers, I Introduction, Australian Journal of
Biological Science, 10, pág. 484-491, 1957.
Marcelo A. Fraile - Arquitectura biodigital
En 1962, el matemático y biofísico germano-estadounidense Hans-Joachim Bremermann (1926-1996) publicaría un trabajo titulado “Optimization through evolution and recombination”13, en donde propone el estudio
de la evolución de los sistemas biológicos como un proceso de optimización digital. Para ello, Bremermann
desarrollaría una simulación computacional a través de una cadena de números binarios, en donde utilizó un
procesamiento de variables a través de reproducción, selección y mutación de la información. A partir de estos
estudios, se pudo advertir el importante papel que ocupaba la mutación dentro de la evolución, ya que esta
impedía el estancamiento de las futuras generaciones.
También en 1962, el investigador alemán Ingo Rechenberg (1934) introduciría el concepto de “estrategias evolutivas”, como un método que posibilitaba la optimización de los parámetros reales utilizados en ciertos mecanismos.
Rechenberg desarrollaría una serie de nuevos algoritmos con el objeto de resolver problemas aerodinámicos
en el diseño de las alas de los aviones para la compañía Focker: una aplicación práctica de las estrategias
evolutivas desarrolladas a partir de modelos computacionales.
Cuatro años después, los investigadores estadounidenses Lawrence Jerome Fogel (1928-2007), Alvin J.
Owens y Michael John Walsh desarrollarían la “programación evolutiva”, “…una técnica en la cual las candidatas a soluciones a tareas determinadas, eran representadas por máquinas de estados finitos, cuyos diagramas
de estados de transición evolucionaban mediante mutación aleatoria, seleccionándose el que mejor se aproximara” (Tolmos Rodríguez-Piñero, 2003, p. 2). Un procedimiento matemático que conduciría en el futuro a lo
que se conoce como “algoritmos genéticos”14.
La primera mención del término algoritmo genético fue hecha en 1967 por el Dr. John Daniel Bagley en su tesis
doctoral “The behavior of adaptive systems which employ genetic and correlation algorithms”15. En esta, Bagley había diseñado un test “…para controlar las tareas a ejecutar en el juego de los seis peones. El algoritmo
permit[ía] encontrar el conjunto de parámetros necesarios para usar en una función de evaluación del juego y
luego compararlo con algoritmos existentes” (Cerrolaza & Annicchiarico, 1996, p. 46).
De cualquier forma, la creación del término algoritmo genético se le atribuye al estadounidense John Henry
Holland16 (1929-2015), doctor en Filosofía y Ciencias de la Computación quien en 1970, incorporando programas de computadora, generó un procedimiento matemático que imitaba los criterios de selección y supervivencia de las especies más aptas postulados por Charles Darwin.
En 1975, Holland publicó “Adaptation in Natural and Artificial Systems”17, una importante referencia bibliográfica, en donde, respaldado por sus investigaciones, elaboraría pequeños modelos matemáticos capaces de
251
resolver problemas de la misma forma como lo hace la naturaleza, es decir, a través de la evolución (Cerrolaza
& Annicchiarico, 1996, p. 48). Y así como la naturaleza resuelve sus dificultades a través de la modificación de
los cromosomas, el modelo de Holland resolvería los suyos manipulando el material dentro de los cromosomas digitales (cadenas de dígitos binarios que representan las variables de diseño).
13. Bremermann, Hans (1962). Optimization through evolution and recombination, en Yovitts Marchall et., Self-Organizing Systems, Washington: Spartan books, pp. 93-106.
14. Aunque originalmente esta técnica fue denominada “planes reproductivos”, para 1975 ya se había hecho popular bajo
el nombre de “algoritmos genéticos”.
15. Bagley, J. (1967). “The behavior of adaptive systems which employ genetic and correlation algorithms”, Doctoral Dissertation, University of Michigan, Dissertation Abstracts international, Vol. 28, n.º 7.
16. Uno de los fundadores del sistema complejo. A principios de la década del 60, John Holland era profesor de Electrical
engineering y Computer science de la University of Michigan, en Ann Arbor, dentro del grupo Logic of Computer. En dicha universidad impartía un curso titulado “Teoría de sistemas adaptativos”, en donde se crearon muchas de las ideas que
dieron lugar a los algoritmos genéticos.
Inspirado en el libro La teoría genética de la selección natural, del biólogo evolucionista R. A. Fisher, Holland aprendió
los aspectos referentes a la evolución y adaptación en la naturaleza. En sus investigaciones, Holland buscaba imitar los
procesos adaptativos de los sistemas naturales al diseñar sistemas artificiales bajo la forma de programas digitales.
17. Holland, J. (1975) Adaptation in Natural and Artificial Systems, Michigan: The University of Michigan Press.
Parte IV. La génesis de un nuevo paradigma
Estos cromosomas digitales son sometidos a acciones semejantes a las
que actúan durante la evolución de los organismos (mutación y recombinación genética), así como también una selección de acuerdo a una
serie de criterios predefinidos, para así seleccionar cuáles de los individuos mejor adaptados sobrevivirían y cuales, menos adaptados, serían
descartados (Cerrolaza & Annicchiarico, 1996, p. 48).
Tiempo después, Goldberg (1953), un ingeniero industrial que había
sido estudiante de Holland en la Universidad de Michigan, comenzó a
utilizar los algoritmos genéticos para resolver problemas industriales,
empleando una computadora Apple II. En 1989, Goldberg publicó Genetic Algorithms18, uno de los libros que más contribuyó a la difusión y
aplicación de los algoritmos genéticos.
En la actualidad, los algoritmos genéticos son utilizados para resolver
una amplia gama de problemas complejos, cuya solución sería extremadamente difícil usando otras técnicas. Un método de indagación que
puede ser utilizado para solucionar problemas de optimización, permitiendo evaluar y corregir inconvenientes cuyo espacio de acción es demasiado grande. Una búsqueda cambiante, donde cada cromosoma es
un candidato potencial a futuras respuestas.
Con el fin de simplificar el proceso, las fases de un algoritmo genético
simple o canónigo, puede resumirse en:
1. Inicialización
El algoritmo genético crea de manera aleatoria un par de criaturas artificiales denominadas padres, progenitores o población inicial.
Esta población o generación consiste en un conjunto de individuos definidos a través de sus cromosomas. Cada cromosoma se codifica a
través de una cadena de bits de información denominados genes.
252 Fig. 9. El algoritmo genético crea de
manera aleatoria un par de criaturas
artificiales denominadas padres, pro-
Los genes representan una posición en la cadena de información. Cada
gen está formado por un conjunto de valores denominado alelo.
Los alelos pueden ser de tres tipos:
genitores o población inicial.
- Binarios: (son los más comunes) constituidos por 0 y 1.
Esta población o generación consiste
en un conjunto de individuos definidos
a través de sus cromosomas. Cada
- Enteros: constituidos por un numero entero, por ejemplo 1, 5,
-5, etcétera.
cromosoma se codifica a través de
una cadena de bits de información denominados genes.
- Reales: constituidos por un número real, por ejemplo 0,124;
0,5; -0,24; etcétera.
- Letras: constituidos por cadenas de letras, por ejemplo A, B,
etcétera.
El comportamiento del algoritmo genético futuro será dependiente de los
parámetros iniciales seleccionados:
18. Goldberg, D. (1989) Genetic Algorithms. In shearch, optimization & Machine
Learning. Massachusetts: Addison-Wesley Publishing Company.
Marcelo A. Fraile - Arquitectura biodigital
-
Tamaño de la población: si la población es pequeña, se corre el
riesgo de no cubrir la esfera de búsqueda; en tanto que, si es
demasiado grande, puede acarrear un aumento considerable de
los tiempos y procesos de cálculo.
-
Aleatoriedad de la población: su combinación debe ser tal que
garantice la diversidad estructural de las soluciones, evitando
convergencias prematuras.
-
Numero de generaciones: cada iteración durante el proceso recibe el nombre de generación. Un algoritmo puede tener entre 50 y 500 iteraciones. Cada conjunto de iteraciones recibe el
nombre de Serie.
-
Porcentaje de cruce, porcentaje de mutación, etcétera.
2. Evaluación
Una vez formada la población inicial, se calcula y evalúa la aptitud de
cada uno de los genes de los individuos (fitness).
Se aplicará a cada cromosoma de la población buscando la mejor solución que se codificó.
3. Selección o reproducción
Con base en la aptitud, el algoritmo selecciona de la población aquellos algoritmos para efectuar la reproducción, es decir, aquellos cromosomas que serán cruzados en la siguiente generación. Para esto,
el sistema seleccionará, entre los cromosomas de la población inicial, aquellos que posean capacidad de reproducción, y entre estos,
los que sean más compatibles y produzcan más descendencia que el
resto (Tolmos Rodríguez-Piñero, 2003, pp. 2-3). Cuanto mayor sea la
adaptación de un individuo al problema, mayor será la probabilidad de
ser seleccionado para reproducirse: el más apto sobrevive, el menos
Fig. 10. El algoritmo imita la combina-
apto muere.
ción biológica existente en la naturaleza: un proceso de selección natural,
4. Variaciones
análogo a los existentes en los procesos biológicos. Para ello se aplica
El algoritmo imita la combinación biológica existente en la naturaleza: un
proceso de selección natural, análogo a los existentes en los procesos
biológicos. Para ello se aplica sobre la población inicial, los operadores
genéticos de reproducción, cruce y mutación, con el fin de concebir la
siguiente población.
-
Operaciones de combinación o cruce: relacionadas con la reproducción sexual, se producen cuando el algoritmo genético selecciona dos individuos que cumplirán el papel de padres. Estos individuos son recombinados, cambiando la secuencia a través de la
selección de un punto de corte, para posteriormente intercambiar
las secciones que se encuentran a la derecha o izquierda de dicho
sobre la población inicial, los operadores genéticos de reproducción, cruce
y mutación, con el fin de concebir la
siguiente población.
253
Parte IV. La génesis de un nuevo paradigma
punto19, por ejemplo “…las cadenas 10010011 y 11111010 pueden cruzarse después del tercer lugar para
producir la descendencia 10011010 y 11110011. Imita la recombinación biológica entre dos organismos
haploides” (Tolmos Rodríguez-Piñero, 2003, p. 6). Una combinación de las mejores características provenientes de la población inicial, para generar una descendencia mejor adaptada, una convergencia
hacia una solución óptima del problema.
-
Operaciones de mutación: el algoritmo produce una pequeña variación aleatoria de un cromosoma de
los individuos vecinos, por ejemplo, “…(la cadena 00011100 puede mutar su segunda posición para dar
lugar a la cadena 01011100). La mutación puede darse en cada posición de un bit en una cadena, con
una probabilidad, normalmente muy pequeña (por ejemplo 0.001)” (Tolmos Rodríguez-Piñero, 2003, p. 6).
5. Evaluación
En esta etapa, el algoritmo calcula la aptitud de los individuos (fitness). Para ello, su espacio de búsqueda
deberá está delimitado dentro de ciertos rangos, permitiendo definir qué tan acertada o equivocada es la respuesta. Tiene que ser capaz de condenar las malas soluciones y premiar las buenas, de forma que sean estas
últimas las que puedan repetirse con mayor rapidez
6. Condición de término
Se pretende que el algoritmo genético detenga su búsqueda cuando alcance la solución óptima, pero dado
que este punto se desconoce, se utiliza otro criterio para detenerlo. Las alternativas más usadas son: correr
el algoritmo un número máximo de veces (iteración o generaciones), o detenerlo cuando no existan cambios
en la población.
En caso de haber alcanzado las condiciones de parada, se restituye el mejor individuo encontrado y fin del
algoritmo.
7. Nueva iteración
Si no alcanzó la condición de parada, el algoritmo vuelve al paso número 3, hasta que la condición de término
se satisfaga.
Con cada nueva generación, la población evoluciona hacia un resultado óptimo: es lo que se conoce como
concepto de convergencia, una progresiva evolución hacia la uniformidad.
254 De acuerdo a las variaciones y el modo en cómo se apliquen los operadores genéticos, el proceso de selección y el reemplazo de los individuos, serán los resultados obtenidos. Sin embargo, su no linealidad y su
adaptabilidad permiten una amplia gama de combinaciones con resultados óptimos.
Los algoritmos genéticos no presentan soluciones perfectas, tienen ciertas limitaciones; en general sus soluciones son buenas, dependiendo de la definición del problema, del entrecruzamiento de sus elementos y de
la especificidad de sus soluciones.
Los algoritmos genéticos difieren de los métodos de búsqueda y optimización ya que al trabajar con códigos
que codifican el conjunto de parámetros y no sobre las variables, el sistema es más complejo de engañar. A
su vez, al trabajar con una población, se reducen las probabilidades de una única opción.
Para que el algoritmo genético pueda resolver el problema, la solución debe ser codificada de un modo que
resulte fácil su implementación a través de los sistemas digitales.
19. Algunas investigaciones han determinado que el número óptimo de puntos de cruce es dos. Más puntos no representan
una mejora sustancial al comportamiento del algoritmo.
Marcelo A. Fraile - Arquitectura biodigital
El modelo biológico-digital de Dawkins
En 1976, el biólogo evolutivo británico Clinton Richard Dawkins (1941), en su libro titulado The Selfish Gene20,
introduce el término memes, una abreviatura del griego ‘mimeme’, para desarrollar una visión evolutiva de las
especies que hace foco en los genes en lugar de en el individuo.
En este sentido, Dawkins utiliza la palabra memes como “…una unidad de transmisión cultural” (1993, p. 219),
una analogía al concepto de genes, para explicar la difusión de ideas y fenómenos culturales.
Los memes se relacionan con la memoria, son “…tonadas o sones, ideas, consignas, modas en cuanto a vestimenta, formas de fabricar vasijas o de construir arcos”. Y así como los genes transmiten el material genérico
a través de los espermatozoides y los óvulos, “…los memes se propagan en el acervo de memes al saltar de
un cerebro a otro mediante un proceso que, considerado en su sentido más amplio, puede llamarse de imitación” (Dawkins, 1993, p. 219).
Para Dawkins, la selección natural va construyendo la complejidad paso a paso, a través de una cadena de
micromutaciones continuas, para llegar de un punto a otro, una “…construcción gradual de la complejidad a
través de una ‘suave rampa’ que conduce, desde los seres más sencillos, a los más complejos y organizados”
(Aguirre, 2009).
En este sentido, estableciendo una analogía con los sistemas genéticos, los rasgos culturales o memes también se replican. Sin embargo, mientras que los cromosomas son unidades independientes, las dimensiones
culturales son una construcción general.
Al igual que los genes, los memes se caracterizan por tener: longevidad, fecundidad y fidelidad de copiado.
Por imitación, los memes son capaces de crear réplicas de sí mismos. Pero, así como no todos los genes que
pueden hacer copias lo efectúan con éxito, de la misma forma algunos memes tienen más éxito que otros:
proceso análogo al de la selección natural (Dawkins, 1993, p. 221). De esta forma, los memes son transmitidos
de una forma alterada, bajo un proceso de mutación y fusión constante.
Dawkins propone la existencia de dos procesadores de la información: el primero actúa a nivel genómico, a
partir de la replicación de genes a través de las generaciones, una unidad de información heredable que produce efectos concretos; y el segundo, a nivel cerebral, que replica la información cerebral del individuo, la cual
se recibe a través de la enseñanza, la imitación, o por simple asimilación.
En 1989, el físico argentino Pablo Moscato (1964) publicó un artículo titulado “On Evolution, Search, Optimi- 255
zation, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms”21, en donde utilizaba por primera
vez el término “algoritmos meméticos” para referirse a las técnicas de optimización que combinan sinérgicamente técnicas basadas en poblaciones, como en los algoritmos genéticos, y técnicas de búsqueda local,
como las realizadas por cada individuo. Sin embargo, en los algoritmos meméticos, el concepto pasivo de
individuo es reemplazado por el de agente, un comportamiento activo dirigido a la resolución de un cierto
problema (Cotta, 2007).
Desde esta mirada, un algoritmo memético puede asociarse con un algoritmo genético al cual se le agregó un
paso extra al proceso de cruzamiento y mutación, este paso correspondería con una búsqueda local de cada
individuo. Es decir, cada generación, al terminar la iteración, realiza una nueva búsqueda –pero ahora local–,
con el fin de descubrir si existe alguna solución “más apta” a la representada dentro del rango local. Un algoritmo que utiliza los memes como unidades de información codificada en representaciones computacionales
con el fin de resolver un problema (Aguilar Justo, 2014, p. 7).
20. Dawkins, R. (1976). The selfish gene, Oxford: Oxford University Press.
21. Moscato, P. (1989), On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms, Pasadena: Caltech Concurrent Computation Program 158-79.
Parte IV. La génesis de un nuevo paradigma
A diferencia de los algoritmos evolutivos estándar, que comienzan con un numero aleatorio de soluciones, los
algoritmos meméticos “arrancan” con un proceso de inicialización.
Los algoritmos meméticos buscan desarrollar mejoras individuales de las soluciones, “…en cada uno de los
agentes junto con procesos de cooperación y competiciones de tipo poblacional”22.
Una interrelación entre los agentes, dentro de un marco de competencia y cooperación, similar a los procesos
existentes en la naturaleza entre los individuos de una misma especie.
Durante el proceso, cada generación se actualiza utilizando una nueva población obtenida mediante la recombinación de las características de algunos agentes escogidos: la selección es la responsable de elegir de la
población actual una muestra de los mejores especímenes; y la actualización o mutación es la encargada
de eliminar un cierto número de agentes, con el fin de permitir el ingreso de otros nuevos, enfocando de este
modo las tareas de búsqueda.
Tanto los procesos de selección como de actualización son estructuras puramente competitivas que posibilitan
modificar la distribución de los agentes existentes (Moscato & Cotta, 2003, pp. 131-148).
Finalmente, el empleo de estrategias de búsqueda local desarrolla “…una exploración autónoma del espacio
de búsqueda, cooperando en ocasiones a través de la recombinación, y compitiendo por recursos computacionales a través de los mecanismos de selección/reemplazo” (Cotta, 2007). Una búsqueda compleja en
donde se deberá determinar el modo de representar la solución a ser utilizada.
Desde este punto de vista, su implementación puede resumirse en cuatro pasos:
1. Generar la población inicial. Esta podrá ser aleatoria, predeterminada, o a partir de la aplicación de alguna
ley heurística.
2. Búsqueda local. Donde cada agente realizará una indagación hasta encontrar un óptimo local, o hasta lograr una mejora determinada. Pese a ser equivalente al proceso de mutación en los algoritmos genéticos,
su diferencia radica en que la exploración local es guiada.
3. Interacción entre los agentes. Los agentes interactuarán entre sí a través de la competencia (equivalente
a la selección en los algoritmos genéticos) y a través de la cooperación (equivalente al cruzamiento en un
algoritmo genético).
256
4. Si el criterio obtenido cumple con los requisitos previamente definidos, finalizar; caso contrario, volver al
paso 2.
A diferencia de otras técnicas, los algoritmos meméticos fueron concebidos como un sistema abierto a la interacción sinérgica con otras técnicas. Esto produjo su difusión a diversos campos del conocimiento, buscando
un máximo aprovechamiento de los recursos computacionales.
Doce años después de The Selfish Gene, Dawkins publicaría The blind Watchmaker23: un intento de explicar la
Teoría de la Evolución de Darwin mediante un nuevo modelo evolutivo adaptativo, el cual no posee intenciones
ni objetivos predefinidos. Un mecanismo que, como un relojero ciego, “…no planifica las consecuencias, no
tiene una finalidad en mente” (1988, p. 20).
Para explicar este concepto, Dawkins utiliza el conocido teorema del mono infinito, según el cual, “…si le das
una computadora a un mono, y lo dejás teclear al azar por suficiente tiempo, eventualmente tecleará las obras
completas de Shakespeare” (Fiszbein, Godoy Herz, & Aboud, 2008, p. 2).
22. Moscato, Pablo, Cotta, Carlos, “Una introducción a los algoritmos meméticos”, Vol. 7, número 019, Asociación Española para
la Inteligencia Artificial, Valencia, España, 2003, pág. 131-148. En: http://www.aepia.org/revista (consultado 29 de mayo de 2017).
23. Dawkins, R. (1986). The blind Watchmaker. England: Longan cientific & Technical.
Marcelo A. Fraile - Arquitectura biodigital
A partir de este concepto, Dawkins desarrolla Weasel program, un
modelo que utiliza la frase de Shakespeare “ME THINKS IT IS LIKE A
WEASEL” (creo que parece una comadreja) como punto de llegada a la
solución. Un teclado reducido a 26 letras mayúsculas y el espacio para
reproducir una frase de 28 caracteres. De esta manera, el programa
actúa analógicamente como el mono infinito para generar miles de millones de combinaciones posibles (Fiszbein et al., 2008, p. 2).
Con el asesoramiento de Alan Grafen, el programa fue desarrollado utilizando una computadora Apple Macintosh de 64 K de memoria, bajo
lenguaje BASIC que posteriormente fue reemplazado por uno que corría
bajo un lenguaje PASCAL.
El programa establecía una semejanza con la teoría de la evolución, en
donde las letras escritas al azar representaban las mutaciones aleatorias. De este modo, si el sistema escribe la letra correcta y en la posición
adecuada, esta quedará visible para la siguiente iteración.
En sucesivas etapas, el programa intentará completar solo las letras que
no fueron escritas correctamente en el intento anterior. A medida que
el tiempo pasa y las iteraciones aumentan, el sistema se va acercando
cada vez más a la solución buscada, es decir, la frase de Shakespeare
(Fiszbein et al., 2008, p. 2).
Cada vez que el programa corre, es una población diferente, con diferentes mutaciones: una ‘n’ cantidad de iteraciones necesarias para escribir
la frase correcta. Un algoritmo aleatorio, que no descarta ningún camino
a priori, un análisis de micromutaciones, manteniendo las posibilidades
de encontrar nuevas soluciones a través de una selección acumulativa.
Y aunque el modelo desarrollado por Dawkins es útil para explicar el
concepto de selección acumulativa, “…la calidad de las soluciones que
genera se juzga comparándola explícitamente con ese resultado especificado de antemano” (Marczyk, 1993). Esto puede inducir al error si se
Fig. 11. Dawkins utiliza el conocido
teorema del mono infinito, según el
cual, “…si le das una computadora
a un mono, y lo dejás teclear al azar
por suficiente tiempo, eventualmente
tecleará las obras completas de Shakespeare” (Fiszbein, Godoy Herz, &
Aboud, 2008, p. 2).
257
Parte IV. La génesis de un nuevo paradigma
lo relaciona con la naturaleza, ya que en esta, su resultado no es conocido de antemano, y por lo tanto es
imposible contar con un elemento de contraste.
Dawkins justifica este concepto explicando que la naturaleza, en lugar de utilizar la información conocida para
guiar cada paso y realizar las mejoras –tal como lo haría un diseñador humano–, en realidad “…son ‘relojeros
ciegos’ que realizan cambios aleatorios en sus soluciones candidatas y luego utilizan la función de aptitud para
determinar si esos cambios producen una mejora” (1988, p. 20).
Ahora bien, pese a que el modelo inicial de letras y palabras de Dawkins había resultado ser interesante para
la investigación de la evolución en la naturaleza, se precisaba reemplazar este modelo por otro más eficiente
que permitiera mostrar los resultados de un modo gráfico en la pantalla de una computadora.
Sin embargo, el desarrollo de sistemas embrionarios resulta demasiado complejo para poder ser simulado en
una computadora. Es por esto que se hizo necesaria una analogía simplificada de la naturaleza: una serie de
reglas simples que pudieran trazar su “evolución” pero de un modo gráfico en la pantalla de una computadora.
Una simulación de un organismo en dos dimensiones, a las que Dawkins llamó “Biomorfos” 24, dado su parecido con ciertas formas biológicas.
Para ello, inicialmente, la computadora comienza dibujando una línea vertical en la pantalla, a continuación,
esta línea se ramificará en dos; luego, cada rama se dividirá en dos sub-ramas; el siguiente paso será, que
cada sub-rama se dividirá a su vez en dos “sub-sub-ramas” y así sucesivamente. La profundidad de las repeticiones significará el número de “sub-sub…ramas” que dan lugar a una forma grande y frondosa. Una regla de
ramificación aplicada localmente en una estructura arboriforme en crecimiento (Dawkins, 1988, p. 37).
Por ejemplo, en un modelo de 9 genes (representado por un valor entero), cada uno de estos puede influenciar
en alguna particularidad del modelo: uno podría influenciar en el ángulo de ramificación, otro en la longitud
de una rama determinada, otro en el número de ramificaciones sucesivas, etcétera. (Dawkins, 1988, p. 39).
Durante el proceso de reproducción, cada generación recoge los genes de la generación anterior y los transmite a la generación siguiente, pero con pequeños errores al azar, pequeñas mutaciones que consisten en
sumar o restar un valor al gen escogido al azar. Un modelo de evolución capaz de generar bioformas a través
de una selección artificial.
En este sentido, para Dawkins, la elección arbitraria de los biomorfos permite comprender el rol del azar durante el proceso evolutivo: una selección acumulativa de decisiones del usuario, donde el genoma cambia a
258 través de las sucesivas mutaciones.
Sin embargo, durante el proceso de selección en un organismo biológico, la naturaleza no elige los genes de
un modo directo, sino por los efectos que los genes tienen sobre los cuerpos, esto se conoce como efectos
fenotípicos (Dawkins, 1988, p. 40). Dawkins introduciría el concepto de fenotipo en sus programas, a través
de una cadena binaria análoga con la cadena de aminoácidos existentes en los genes de un organismo vivo.
De este modo, el algoritmo evaluaría la idoneidad de la respuesta, usando la información proporcionada de
antemano para seleccionar qué individuos preexistentes serán reemplazados por los nuevos individuos en la
etapa de reproducción, manteniendo siempre la población.
Tiempo después, Dawkins agregaría 7 genes adicionales al modelo original de 9 genes, con el fin de simular
el proceso de segmentación, facilitando el desarrollo de nuevas estructuras con distintos tipos de simetrías
(Lahoz-Beltra, 2004, p. 283).
24. Término originalmente acuñado por el zoólogo británico Desmond Morris (1928): en referencia al tipo de pintura surrealista que el desarrollaba.
Marcelo A. Fraile - Arquitectura biodigital
Una búsqueda a través de millones de combinaciones, donde los algoritmos encontrarán una gran cantidad
de posibles resultados (genotipos), que irán mejorando en las sucesivas iteraciones hacia el óptimo genoma.
Sin embargo, no existe garantía de encontrar la mejor solución posible.
El algoritmo de Dawkins puede resumirse en:
1. Adoptar una cadena aleatoria inicial.
2. Evaluar la cadena de montaje.
3. Seleccionar la mejor cadena de montaje, a partir de las funciones de aptitud.
4. Reemplazo de la cadena que no cumple los requisitos.
5. El algoritmo se detiene si el resultado es el correcto, caso contrario regresa al ítem 2.
A través de sus escritos, Dawkins pretendía demostrar que la selección de un solo paso es absurdamente
improbable, siendo producidos los resultados complejos simplemente por el azar, en tanto que en la selección
acumulativa, el resultado complejo se construye lentamente a través de un proceso evolutivo de filtrado que
preserva las mejoras sin hacer cambios (Marczyk, 1993).
A pesar de esto, la selección natural es compleja, y simularla en una computadora es más complejo aún. Las
bioformas deberán interactuar dentro de la computadora, una simulación dentro de un ambiente hostil, que “…
debería incluir otras bioformas en evolución, ‘depredadores’, ‘presas’, ‘parásitos’, ‘competidores’” (Plaza Leiva,
2013). Un mundo complejo que requiere de poderosos equipos y hábiles programadores.
Figuras
Fig. 1. Autómatas celulares. http://www.enelnombredetux.com/project292f.html?project=autcel
Fig. 2. Autómatas celulares. http://www.enelnombredetux.com/project292f.html?project=autcel
Fig. 3. El juego de la vida de Conway. http://www.enelnombredetux.com/project292f.html?project=autcel
Fig. 4. El juego de la vida de Conway. http://www.enelnombredetux.com/project292f.html?project=autcel
Fig. 5. autómatas celulares de Stephen Wolfram. http://natureofcode.com/book/chapter-7-cellular-automata/
Fig. 6. Bucle de Langton. http://cala.unex.es/cala/epistemowikia/images/e/e3/Bucle_Langton.PNG
Fig. 7. Bucle de Langton. http://lslwww.epfl.ch/pages/embryonics/thesis/Thesis-26.gif
Fig. 8. Sistemas de Lindenmayer. http://igm.rit.edu/~nd/sims/trees.png
http://blog.press.princeton.edu/wp-content/uploads/2011/07/trees.jpg
Fig. 9. Algoritmo genético. https://towardsdatascience.com/introduction-to-genetic-algorithms-including-example-codee396e98d8bf3
Fig. 10. Algoritmo genético. https://towardsdatascience.com/introduction-to-genetic-algorithms-including-example-codee396e98d8bf3
Fig. 11. The Weasel program. http://www.i-logic.com/weasel/weasel.htm
259
Marcelo A. Fraile - Arquitectura biodigital
MORFOGÉNESIS DIGITAL EN ARQUITECTURA
“Las revoluciones discurren con frecuencia en direcciones inesperadas por quienes las iniciaron. Copérnico
quería conseguir los mismos resultados que Ptolomeo… Sin embargo, la revolución copernicana llego a término cuando Kepler introdujo sus orbitas elípticas recorridas con movimientos acelerados. También Newton
compuso su sistema para llevar a las personas a creer en la divinidad, por lo que redujo la materia a casi nada”.
(Solís Santos, 2006, p. 9).
La naturaleza como fuente de inspiración
La arquitectura tradicional ha venido repitiendo a lo largo del tiempo patrones y mecanismos que han permitido la supervivencia humana desde sus orígenes. Sin embargo, sabemos que el entorno humano se modifica
constantemente; de hecho, en los últimos años hemos notado un proceso acelerado de degradación en nuestro ambiente. La especie humana “…se ha comportado con el ecosistema natural del mismo modo irresponsable que un niño maleducado con una mascota” (Garrido De, 2012, p. 14).
En respuesta a esa situación, pareciera que nos encontramos en el surgimiento de un nuevo paradigma que
ve en lo biológico un método para expandir sus conocimientos. Dentro de este ámbito, las nociones tradicionales del diseño se han modificado para surgir un nuevo diálogo que intenta llegar a niveles más avanzados del
hacer y del pensar, a través del uso inteligente de las cualidades de los medios electrónicos, de la genética y
de la biología.
Invadidos por el pensamiento de otros campos disciplinares y apropiándose de ideologías diversas, de un
universo de nuevos sistemas, el concepto de morfogénesis, hacen su aparición en el campo de la arquitectura
como un medio de expresión creativa y gestora de un diseño que busca la optimización de los recursos.
Aparece un nuevo concepto: el de morfogénesis. Y al igual de lo que sucedió con otras disciplinas, se incorpora al campo del diseño, pero complementada con la palabra “digital”, o “computacional”. Esto está relacionado
con que en este ámbito los medios digitales ya no se consideran meras herramientas de representación, sino
que son medios para la generación y transformación de la forma, lo que crea un vínculo que no puede escindir
la forma de la idea.
En arquitectura, la morfogénesis digital puede ser entendida de una manera “…análoga o metafórica con los
procesos de morfogénesis en la naturaleza, compartiendo con ella la dependencia del desarrollo gradual, pero 261
no necesariamente adoptando o haciendo referencia a los mecanismos reales de crecimiento y adaptación”
(Roudavski, 2009, pp. 345-374).
Lo que es claro, ya sea una u otra definición, que su utilización en el campo de la arquitectura se ha convertido
en un conjunto de métodos y sistemas que utilizan lo informático para la toma de decisiones.
Es decir, una mirada que hace foco en los procesos biológicos-digitales de desarrollo como una herramienta
generativa de resultados complejos e innovadores. La arquitectura surge de nuevos planteos capaces de replicar los sistemas existentes en la naturaleza a fin de responder mejor a las condiciones de su ambiente para
contribuir al desarrollo de una producción sustentable y de alta performance.
Es una arquitectura que está en contacto con el ambiente, que evoluciona y cambia, que interactúa, que
respira, que controla su temperatura, sus accesos y su iluminación. Una arquitectura de alta tecnología que
no imita a la naturaleza de un modo fotográfico, sino que, por el contrario, sus acciones son el resultado de
formas biológicas digitales, híbridos virtuales estructurados de manera autónoma y de un modo jerárquico,
una sucesión de sistemas dentro de sistemas. Sus formas fluidas de sugerentes curvas son el resultado de
Parte IV. La génesis de un nuevo paradigma
modelos matemáticos evolutivos; son como un organismo de vida digital que codifica en su ADN nuevas criaturas autoorganizadas, en un proceso de selección y supervivencia del más apto, en una interacción constante
con el entorno.
El resultado es un diseño modelado como un organismo que envuelve nuevas concepciones del espacio. Una
relación integral entre forma y estructura, en donde se optimizan los recursos de un modo lógico, bajo parámetros bioclimáticos y con un mayor grado de eficiencia energética. Se crea así una “arquitectura de rendimiento”,
con una relación lógica y yuxtapuesta que considera los requerimientos ambientales y sostenibles del lugar,
superando el criterio conservacionista tradicional.
Es por todo esto que podemos afirmar que, a comienzos del siglo XXI, un nuevo paradigma está surgiendo:
con principios genético-digitales; con una mirada que ve en los organismos vivos y en la compleja relación
con la tecnología, una fuente de inspiración. Trabajando desde lo digital, las ideas evolucionan bajo un nivel
de abstracción formal a partir de mutaciones y cruces hasta convertirse en una “especie arquitectónica nueva”,
donde el medioambiente y la tecnología, por fin se encuentran en equilibrio.
En el campo de la arquitectura, la morfogénesis digital permite al diseñador desarrollar toda una gama de
posibilidades. Para Branco Kolarevic, el énfasis de la morfogénesis digital ya no está puesto en el proceso de
crear formas, sino en el de encontrarlas, algo que las técnicas generativas digitales fomentan de un modo
intencionado (Dunn & Casasnovas, 2012, p. 68). Una concepción contemporánea del diseño que busca en
la morfogénesis un tipo excepcional de arquitectura, donde el diseñador se transforma en su descubridor o,
mejor aún, su creador, bajo una serie progresiva de acercamientos.
Mediante su práctica, se busca encontrar soluciones a problemas que la naturaleza ya ha resuelto. Para esto,
se requerirá un mayor compromiso entre tecnología y biología, lo que lleva a la elaboración de propuestas
arquitectónicas cada vez más complejas. En este nuevo accionar resulta evidente que los nuevos diseñadores
de la contemporaneidad son transformados en metadiseñadores digitales, que consideran la tecnología como
una herramienta proyectual. Un nuevo accionar donde lo constante y particular es sustituido por lo variable
y diverso; y donde “las formas dejaron de ser dibujadas o representadas para pasar a ser calculadas” (Lynn,
2000).
Sin embargo, no todos aceptan estos planteos, y se producen posiciones radicales y enfrentadas. Por un lado,
un grupo de diseñadores más conservadores se aferran a los planteos más tradicionales. Para ellos, se trata
de una arquitectura que ha interpretado la biología desde un punto de vista estético, extrayendo de esta sus
262 formas como un ornamento decorativo, siendo sus traducciones elementos simbólicos, “…como base para
prácticas filosóficas metafóricas o espirituales” (Dunn & Casasnovas, 2012, pp. 345-374), que lejos de ser un
organismo digital genéticamente codificado, se trata más bien de un “…proceso de autogeneración de la forma
en el interior de un medioambiente” (Weinstock, 2004, pp. 10-17).
Por el otro, un pequeño grupo de diseñadores, menos comprometidos con el paradigma tradicional y quizás
con “menos credibilidad que perder”, abogan por un cambio. Ellos constituirían la pieza clave que podría liberarnos de las concepciones clásicas del diseño, porque propician una arquitectura bioinspirada, generativa,
ya que han adquirido una capacidad de interpretación de las formas naturales que va más allá de la mera
aproximación estética.
Para el arquitecto Karl Chu, estamos en un punto de inflexión en el que es posible “articular una teoría de la
arquitectura más amplia, “…que atienda las demandas impuestas por la convergencia de la computación y la
biogenética en la llamada Era Posthumana” (López Fernández, 2009, p. 60).
Marcelo A. Fraile - Arquitectura biodigital
La elaboración del modelo digital en arquitectura
Cada vez que el hombre busca crear objetos nuevos o mejorar su eficiencia, ha recurrido a la naturaleza en
busca de inspiración inagotable: un intento por asemejar los procesos de diseño a los fenómenos naturales,
dependiendo su resolución de las particularidades de cada época.
Hoy, gracias a los avances en materia de ciencias biológicas y digitales, se han comenzado a entender estos
fenómenos desde sus procesos generativos, lo que permite aprehender sus mecanismos intrínsecos de actuación, cuyo objetivo principal es la búsqueda de un mejor hábitat para el hombre.
A lo largo de 3,6 mil millones de años, la naturaleza ha desarrollado un eficiente proceso de evolución en el
que los organismos menos adaptados al medio natural son eliminados; esto da lugar al perfeccionamiento de
aquellos que sobreviven.
En este sentido, es imprescindible comprender que en la naturaleza no existen sistemas cerrados e inamovibles, por el contrario, se trata de estructuras con una búsqueda de renovación constante. Su comportamiento
es el de un sistema inteligente donde las formas biológicas se organizan de maneras autónomas y jerárquicas
para generar seres vivos de gran complejidad y diversidad.
Asumiendo sus enseñanzas, y frente a la crisis ecológica actual, gran parte de la humanidad lucha por adoptar
modos de vida respetuosos del medioambiente que no comprometan el presente y el futuro del planeta.
En este sentido, la arquitectura convencional requiere contantemente de recursos para subsistir: energía eléctrica, agua, aire, calefacción; recursos que implican un alto costo de mantenimiento diario de fuentes externas, muchas veces sin considerar los daños que se producen a la posibilidad de lograr un ecosistema autosustentable.
Se hace necesario repensar la arquitectura y que incorpore una relación sana entre naturaleza y mundo artificial; una arquitectura novedosa, que no busque parecerse a los organismos biológicos, sino que su objetivo
sea “… funcionar como ellos – moverse, transferir aire y humedad, filtrar polución, reorientar sus pieles, modificar el calor y el frío, alertar a los ocupantes de cambiar las condiciones sociales y medioambientales” (Dollens, 2003, p. 84). Se trata de una arquitectura verde, híbrida y experimental que, al igual que la naturaleza,
conserva sus proporciones relativas.
Estamos ante una nueva propuesta, ante un diseño regenerativo en el que nada se pierde, todo se transforma;
a través de la tecnología estamos estableciendo una simbiosis entre el hombre y la naturaleza.
Con el auxilio de la tecnología, estamos transformando la arquitectura en un organismo vivo; en un organismo
análogo a los sistemas biológicos, con estructuras morfológicamente adaptables, químicamente programables, una arquitectura construida a escala molecular. Todo esto implica un cambio de paradigma en el que se
han superado los límites entre lo natural y lo construido.
Y del mismo modo que lo harían las células biológicas, estas ‘células químicas inorgánicas’ pueden interactuar
entre sí para producir materiales vivos: nuevos materiales, que “…con el tiempo se adaptaría, evolucionaría,
mejoraría y abordaría dinámicamente el parámetro de la estabilidad” (Cronin, 2011, pp. 34-43). Permitirán la
construcción de edificios capaces de ser programados, utilizando un enfoque descentralizado, que serán
capaces de autorrepararse; de modular el ambiente (es decir regular su temperatura, su luminosidad, su
humedad); de recolectar, almacenar y distribuir la energía solar; retener el agua de lluvia; e incluso competir
con otros organismos por materiales, información o recursos, creando un sistema complejo de construcción a
escala molecular (Cronin, 2011, pp. 34-43).
263
Parte IV. La génesis de un nuevo paradigma
Estos procesos, surgidos de la utilización de algoritmos genéticos, implican, para Manuel de Landa, el uso de
ciertas ideas filosóficas derivadas del pensamiento de Gilles Deleuze y que pueden sintetizarse en tres formas
de pensamiento: el pensamiento poblacional, el intensivo y el topológico (2002, pp. 117-120)1.
1. Pensamiento poblacional
Es un tipo de razonamiento derivado de las teorías de Charles Darwin y George Mendel, que plantea el concepto
de evolución a medida que los genes se propagan de una población a la siguiente para definir una nueva forma.
En el modelo, esto será representado a través de una analogía entre el código informático y el material genético de un organismo en particular: una secuencia bien definida de operaciones entre genes digitales y rasgos
formales virtuales.
En arquitectura, el modelo digital deberá estar compuesto por dos componentes: por un lado, su información
geométrica, es decir el conjunto de métodos y herramientas que se utilizan para definir la forma y otras características del objeto; y, por el otro, la información no-geométrica, que permite determinar el comportamiento
del modelo (Ramos, 2012).
En primer lugar, el diseñador establecerá el material genético básico. Por ejemplo, para la generación de una
habitación: largo, ancho, alto, etc.; a continuación, deberá añadirle una secuencia de mutaciones espontáneas
que ocurrirán; finalmente, dejará que estas mutaciones se propaguen e interactúen a través de las diferentes
generaciones. Para que esto suceda, será necesario indicarle a la máquina lo que debe hacer, es decir, proponer un listado de comandos e instrucciones que determinarán las tareas, los pasos que se deberán seguir.
Un código programático que le enseñe a la computadora qué variable deberá procesar y cómo deberá hacerlo,
diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos deberá conectar y cómo
llegará a hacerlo. “No hay magia en la informática”.
A través del uso de las computadoras y de los algoritmos digitales, será posible entonces abordar directamente un problema de diseño buscando estratégicamente entre múltiples soluciones posibles.
En estos procesos, los algoritmos genéticos “…son una parte intrínseca de los programas de diseño digital,
que disponen de varias plataformas [desarrollando una] interacción con el propio programa” (Dunn & Casasnovas, 2012, p. 186). Un programa traduce a lenguaje de programación uno o más algoritmos, en una serie de
operaciones específicas con un objetivo concreto.
264 2. Pensamiento intensivo
Es un concepto derivado de la termodinámica, donde el término “intensivo”, se refiere a valores que no pueden
dividirse como tales: la temperatura, la presión o la velocidad. Esto significa, por ejemplo, que un volumen de
agua a 90º, si lo dividimos no se convierte en dos a 45º, sino que resultan dos medios volúmenes a 90º.
Una diferencia intensiva tiende a anularse al transportar materia y energía, e impulsar los procesos que generan la diversidad de la forma. Por oposición, los procesos extensivos consideran magnitudes como longitudes,
áreas, volúmenes, que son más habituales para los arquitectos.
Lo intensivo queda representado en los procesos de embriogénesis, donde tras la fecundación del ovulo, el
cuerpo humano produce diferentes concentraciones de sustancias químicas.
En arquitectura, los procedimientos intensivos requieren que los elementos no pierdan su función. Por ejemplo,
si se trata de una columna encargada de transmitir las cargas de compresión, esta no deberá perder su función en la tercera o cuarta generación, o aparecer situada de tal manera que sea incapaz de soportar cargas.
1. Las consideraciones particulares que se hacen a continuación toman como referencia las ideas desarrolladas por el
autor en este artículo.
Marcelo A. Fraile - Arquitectura biodigital
Para ello, el diseño generativo utilizará una serie de algoritmos desarrollados bajo un “lenguaje de Scripts”2,
como auxilio para el proyecto, lo que permitirá generar nuevas ideas de diseño. Lo importante en este tipo
de modelos es definir cuáles son los parámetros de un proyecto y cuáles son sus reglas. Detectado esto,
será posible construir matrices, modelos matemáticos, que permitan a partir de estos establecer cómo se
relacionan, a fin de poder evaluarlo.
Se establecerá entonces un proceso de selección-evolución, un modelo analítico, disponible “…para el diseño
y [la] fabricación de formas arquitectónicas que presentan un comportamiento complejo, y quizás [hasta] incluso inteligente” (Hensel, Menges, & Weinstock, 2010, p. 9 y ss.). Desde este punto de vista, se pretende diseñar
una arquitectura desarrollada “…bajo el principio de aproximaciones sucesivas, en donde se afirma que se
avanza a pequeños pasos y cada paso es reforzado (premiado) evitando dar el paso siguiente sin tener éxito
constante en el paso previo” (Pérez Arnal, 2003, p. 64). Es un proceso integral basado en búsquedas constantes, con objetivos e hipótesis definidas.
Durante este proceso, es necesario tomar decisiones de diseño. Por ejemplo, dotar al modelo original de los
lugares adecuados en los que se ubicarán los puntos de mutación. Cada forma va evolucionando a partir de
la aplicación de algoritmos digitales, desconociendo cuál será el resultado final: en un proceso de autoorganización y supervivencia de partes que utiliza las herramientas informáticas para el desarrollo de un diseño que
conjuga arquitectura y genética.
3. El pensamiento topológico
Durante la embriogénesis, los vertebrados mutan y cambian en secuencias particulares. Desde un punto de
vista conceptual, un vertebrado “…puede verse concretado en estructuras tan diferentes como la pezuña de
un caballo, el ala de un pájaro o la mano con pulgar opuesto de un humano”. Deleuze llama a este modelo
“diagrama abstracto”, una operación no mensurable, capaz de generar una gran variedad de formas con estructuras y medidas diferentes.
Por analogía, en arquitectura, mientras que la forma final tiene medidas, áreas y volúmenes específicos,
durante el proceso, el modelo deberá ser tan abstracto como para permitir que se desarrollen numerosas
combinaciones distintas.
Para su estudio, el proceso comienza con un edificio abstracto que evoluciona de acuerdo a las reglas impuestas por la geometría topológica. Se trata de una geometría compleja, definida a partir de modelos matemáticos
donde los diseñadores pueden desarrollar toda una gama de opciones de diseño. Este sistema de autoco265
rrección posibilita la eliminación de comportamientos inadecuados y permite obtener diferentes versiones o
variaciones de las soluciones. Son estructuras modeladas a través de software y códigos paramétricos con
una precisión deliberada, obtenidas a través de tecnologías CAD/CAM que dan como resultados proyectos
anticipatorios a la solución final.
2. De acuerdo a su definición, en informática un script es un conjunto de instrucciones, un algoritmo digital, un subprograma o software adicional al principal (plug in), cuya función es la de automatizar tareas repetitivas, aumentando el rendimiento y las propiedades de los primeros.
Estos programas son un conjunto finito, preciso y definido de instrucciones u operaciones que se deben seguir de manera repetitiva, lógica, ordenada y de un modo desatendido, que al actuar en conjunto posibilita reproducir la totalidad de la
entidad y de este modo, resolver un problema específico.
Los scripts pueden presentar comportamientos complejos, a través de la repetición de operaciones simples repetitivas.
Estos presentan tres partes: los datos iniciales necesarios para ser ejecutado; la secuencia de pasos para ejecutar el
algoritmo y los resultados obtenidos una vez ejecutado este.
Parte IV. La génesis de un nuevo paradigma
Los cuatro caminos de la evolución
Los trascendentales avances tecnológicos de las últimas décadas han producido una verdadera revolución
en la práctica del diseño contemporáneo al redefinir las fronteras de la disciplina. Una serie de innovadoras
herramientas digitales tratan de entender y descifrar el orden de la naturaleza, mientras desarrollan en su
proceso una realidad líquida, flexible y cambiante. Una matriz oscilante de datos donde las formas son un flujo
maleable de información, una adaptación programática con requisitos ajustables por sus creadores.
En su afán de experimentación, los jóvenes diseñadores ponen en crisis el viejo modelo racionalista que había
perdurado durante años, para dar nacimiento a un nuevo vocabulario de herramientas biológico-digitales que
buscan resolver los problemas contemporáneos.
Bajo una realidad de múltiples capas, emerge un nuevo modo de proyectación donde la materia se ha transformado en información binaria, definida a través de variables de control que permiten evaluar su comportamiento al reducir costos y desarrollar un diseño bioambiental.
Los diseñadores que trabajan con estos modelos generan protoformas de superficies NURBS: un proceso
que cuestiona la estaticidad proyectual bajo una poderosa herramienta de exploración que posibilita un mayor
control en su desarrollo, adaptándola y estableciendo vínculos con todo aquello que le circunda.
Una arquitectura no cartesiana, de espacios híbridos, donde lo virtual se entremezcla con lo real en una reconfiguración de la concepción del diseño: formas digitales crecen y evolucionan hasta generar nuevas alternativas. Una combinación de reglas y relaciones “…que solo tienen validez momentánea hasta que el próximo
par de componentes permita redefinir ciertas relaciones emergentes” (Araya, 2009, p. 21).
A comienzos del nuevo milenio, nos encontramos con una auténtica revolución del conocimiento humano. Un
nuevo mensajero en el papel de la tecnología nos golpea la puerta revelando aquello invisible a nuestros ojos:
todo se mueve, cambia y evoluciona en esta realidad contemporánea; es como “Vivir en el estómago palpitante
de una ballena… Viejas utopías que ya pueden ser nuevas realidades” (Estévez, 2003, p. 6).
En este sentido, el concepto de morfogénesis pareciera desarrollarse en cuatro direcciones diferentes:
- La primera, a la que denominaremos arquitectura biodiagramática, se encuentra representada por los
arquitectos Peter Eisenman, y PTW Architects;
266
- la segunda, a la que denominaremos arquitectura bioalgorítmica, se encuentra representada por los arquitectos Greg Lynn, Stanislav Roudavski, Jonathan Mackenzie y Supermanoeuvre, (Dave Pigram e Iain Maxwell);
- la tercera, a la que denominaremos arquitectura biomimética, se encuentra representada por los arquitectos Dennis Dollens, Neri Oxman, Michael Pawlyn, Kokkugia (Roland Snooks y Robert Stuart-Smith);
- y finalmente, la cuarta, a la que denominaremos arquitectura genética, se encuentra representada por los
arquitectos Rachel Armstrong, Neil Spiller, Philip Beesley, Karl Chu y Alberto Estévez.
Marcelo A. Fraile - Arquitectura biodigital
ARQUITECTURA BIODIAGRAMÁTICA
“No hay un antes de la forma ni un después de la forma, porque la lógica de la forma es la misma que perfila
y sostiene la frágil realidad de nuestros mundos, porque la lógica de la forma constituye y determina lo real,
porque solo a través de la forma sustentamos nuestra propia realidad” . (Doberti, 1996).
Diagramas
De acuerdo al Diccionario de la Real Academia Española, la palabra diagrama proviene del latín tardío diagramma ‘diseño, trazado’, y este del griego διάγραμμα diágramma, y se refiere a “un dibujo geométrico que
sirve para demostrar una proposición, resolver un problema o representar de una manera gráfica la ley de
variación de un fenómeno”(RAE, Asale, 2014).
Con una fuerte raíz histórico-geométrica, el concepto de diagrama ha evolucionado con el tiempo. Su esencia
se encuentra ya en los principios del pensamiento lógico de Grecia, en los postulados filosóficos de Gottfried
Leibniz, Francis Bacon y en las plantas sistemáticas de Louis Kahn. Una gran diversidad de teorías expresadas de un modo abierto, versátil y diverso (Montaner, 2014, p. 12).
Para el arquitecto catalán Josep María Montaner (1954), las primeras definiciones y usos de los diagramas
en el sentido convencional de la palabra aparecieron en los escritos del sociólogo y filósofo estadounidense
Charles Sanders Pierce (1939-1914).
En sus textos, Pierce define los diagramas como “un ícono que hace inteligible las relaciones, a menudo espaciales, que constituyen una cosa”. Con un significado polisémico y evolutivo, estos se transforman en utensilios
imaginativos capaces de interpretar los datos de la realidad, transformando conceptos en formas. Un proceso
complejo y multidireccional que se retroalimenta y se convierte en un potenciador de la creatividad proyectual:
“…un continuo cognitivo en evolución y son de carácter vectorial” (Montaner, 2014, p. 8 y 9).
En los diagramas, se incorpora información con el objetivo de transmitirla, se constituyen saberes instrumentales que nutren a las nuevas prácticas. Son herramientas analíticas, explicativas, activas y reflexivas, son
dispositivos precisos para reconocer la realidad. A través de estos, es posible producir “…simultáneamente un
diagnóstico y una acción, un mapeo y una trayectoria, una notación y una creación” (Montaner, 2014, p. 24).
Pese a no tener lenguaje, los diagramas utilizan elementos gráficos para establecer relaciones y poder repre- 267
sentar una idea en proceso de elaboración. Un dispositivo abierto y experimental de indagación, económico
y expresivo, capaz de brindar una visión sintética. Su manifestación gráfica es a la vez formal y programática,
busca transmitir el contenido, puede no contener medidas o geometrías ya que su fuerza se encuentra en otro
lado, se halla en los conceptos por investigar. En su esencia, se encuentra el germen que permite ser asociado
no solo con aspectos funcionales, sino también con componentes metodológicos.
En el ámbito de la disciplina arquitectónica, durante los años noventa, los diagramas adquirieron gran protagonismo en las obras de arquitectos como Rem Koolhaas, Greg Lynn, MVRD, Ben van Berkel y Peter Eisenman.
Pese a utilizarlos de maneras diferentes, todos anhelaban liberar la arquitectura de sus limitaciones, presentando una nueva forma de proyectar (Van der Maas, 2011).
De acuerdo con sus características intrínsecas, para el arquitecto holandés Stan van der Maas, los diagramas
pueden ser entendidos de dos maneras diferentes: como instrumentalización o como transposición.
- Como instrumentalización, los diagramas presentan una función explicativa o de análisis, que busca descubrir
e indagar las estructuras y los procesos que suceden en el mundo real. A través de estos diagramas, es posible
Parte IV. La génesis de un nuevo paradigma
representar la información de alguna manera. Las variables son programáticas y formales, aunque carecen de escala, medidas o proporciones.
- Como transposición, los diagramas presentan una función generativa,
buscando controlar y analizar los procesos evolutivos de la forma, actuando como intermediarios en el proceso que conduce a la generación
de un espacio arquitectónico. Desvían los procesos de creación por caminos teóricos y filosóficos, antes de llegar a la definición del proyecto.
Una conversión de elementos no propios de la arquitectura en piezas
gráficas.
Los diagramas se han transformado en una poderosa herramienta de
visualización de fenómenos y flujos que permite identificar situaciones
tanto en la realidad como en el proyecto, un intento por “…superar la
rigidez y el historicismo del concepto de tipología” (Montaner, 2014, p.
36). Un mecanismo versátil y adaptable, una nueva materialidad híbrida
que traspasa las variables de tiempo y espacio y pone en evidencia las
relaciones entre los elementos.
Dentro de la práctica proyectual, los diagramas son entendidos como
herramientas operativas flexibles y adaptables: un evocador de pensamientos nuevos del proyecto, un vehículo para sus ideas que requiere
definición y control y, a la vez, permite modificaciones en el transcurso de
su desarrollo.
Para el arquitecto español Manuel Gausa (1959), un diagrama es “la
representación gráfica del curso de un proceso dinámico sintetizado mediante comprensión, abstracción y simulación” (Bruscato Portella, 2006,
p. 162). En sentido similar, el arquitecto estadounidense Stan Allen (1956)
considera que los diagramas “…no clasifican o representan objetos ya
existentes, sino que anticipan nuevas organizaciones y especifican relaciones todavía no realizadas [es decir, el diagrama]…no solo (es) un
modelo abstracto de cómo las cosas se comportan en el mundo, sino un
mapa de posibles mundos” (Bruscato Portella, 2006, p. 162).
268
Fig. 1. Diagrama de ciudad jardín de
Ebenezer Howard de 1898.
Los diagramas definen una serie de relaciones potenciales entre elementos, un ensamblaje conceptual que permite fijar y canalizar el pensamiento bajo la certeza de que las entidades se encuentran organizadas
dentro de un programa que “…busca la manera más rápida, el camino
más corto y el cálculo más eficaz”(Montaner, 2014, p. 39). De este modo,
los diagramas se convierten en un recurso gráfico con contenido, en sus
variables quedan incluidas tanto las configuraciones formales como las
programáticas, en constante fluidez.
Para el arquitecto español Federico Soriano (1961), en los diagramas ya
existe el germen de la arquitectura, “…no son representaciones sino realidades arquitectónicas. Son generativos de nuevas estructuras” (2004, p. 177).
El diagrama elimina los datos superfluos, trabaja mediante la reducción
y la abstracción, restringiendo sus estudios a lo esencial del problema
(Soriano, 2004, p. 182). A su vez, dadas sus características intrínsecas
Marcelo A. Fraile - Arquitectura biodigital
de fluidez e inmaterialidad, los diagramas presentan una serie de riesgos y limitaciones. En primer lugar, su
excesiva abstracción puede conducir a una desconexión de la realidad, que lleva a resultados formales demasiado arbitrarios; en segundo lugar, su abuso puede conducir a procesos de recolección y análisis de datos
excesivamente largos o considerablemente cortos, que terminen en proyectos vacíos o demasiados simples.
La arquitectura biodiagramática
A finales del siglo
XX,
el vínculo entre arquitectura y biología volvía a instalarse con fuerza en el ámbito del
diseño. Según esta línea de pensamiento, la teoría de la arquitectura posaba su mirada sobre la naturaleza,
en búsqueda de referentes para sus proyectos.
La complejidad de la sociedad contemporánea había generado que los arquitectos debieran enfrentarse a
los nuevos desafíos con más información. En este sentido, con la implementación de los sistemas digitales,
comienza a evolucionar una nueva relación entre arquitectura y naturaleza, un desarrollo innovador donde lo
digital proporcionaba una mayor abstracción y tecnificación de los resultados.
Se intenta abandonar el espacio cartesiano, a través de herramientas informáticas capaces de crear un nuevo
léxico proyectual de relaciones formales y estructurales. Una nueva forma de exploración del proyecto, a través
del movimiento, la temporalidad y las transformaciones.
Sin embargo, para Peter Eisenman, cuando un arquitecto comienza a proyectar, este inicia con un concepto
funcional, topológico o formal, que producirá una figura, un perfil o una composición. Un proceso, por tanto,
que ha comenzado con alguna regla predefinida, sea esta la gravedad, el espacio, la función o la estética. Un
proceso que para el filósofo francés Félix Guattari (1930-1992) ya no es neutral, tiene un deseo, una intencionalidad, y producirá “vectores de ser”, con diferentes resultados. Una intencionalidad que está limitando los
resultados del diseñador (Zaera-Polo, 1997, p. 8).
Para escapar de este proceso, se precisa de un mecanismo que posibilite “empezar de la nada” (Zaera-Polo,
1997, p. 20), un proceso de diseño generativo que conciba el proyecto sin necesidad de recurrir a los conocimientos acumulados o a la experiencia (técnica o cultural) propia de la disciplina (Zaera-Polo, 1997, p. 11). Una
metodología que explore la arquitectura sin la tradición de su historia.
Para este fin, Eisenman propone el desarrollo de los proyectos a partir de diagramas, una metodología tecnológica que lleva hacia la alteración radical del espacio. Una arquitectura autónoma, sofisticada y compleja,
bajo una mirada totalmente alejada de lo perceptivo y lo sensible, y donde sus resultados no guardan ninguna 269
relación con la funcionalidad ni con el contexto (Zaera-Polo, 1997, p. 62).
En este sentido, Eisenman no busca proyectos amorfos o de formas confusas, su objetivo es otro. Él utiliza
los diagramas como un instrumento liberador de proyectos. Un instrumento preciso de reconocimiento de la
realidad, utilizado durante el proceso proyectual para plantear un desarrollo dinámico, una manipulación algorítmica de la geometría de los sólidos, un ir y venir entre los modelos físicos y los diagramas, con el fin de
generar soluciones (Montaner, 2014, p. 24).
Una producción arquitectónica, multidisciplinar, centrada en los procesos existentes en la naturaleza, pero desarrollada bajo un repertorio digital que posibilita considerar tipos de procesos azarosos e impredecibles. Un nuevo
argumento durante la ideación del proyecto que hasta hace poco solo podía ser obtenido de manera intuitiva.
Desde este punto de vista, el diagrama se introduce en el proyecto como un instrumento de pensamiento que
busca resultados operativos, capaces de formular multitudes de resultados al mismo tiempo.
Parte IV. La génesis de un nuevo paradigma
Se trata de una arquitectura biodiagramática, es decir, una arquitectura desarrollada a partir de diagramas digitales que surgen de la acumulación de presiones selectivas de la naturaleza. Una obra abierta e inclusiva, capaz de integrar datos heterogéneos, lo que permite rectificarse de un modo constante (Montaner, 2008, p. 196).
Una interpretación colaborativa que utiliza los diagramas digitales como un aparato para diseñar, transformar y
configurar el proyecto, bajo un proceso dinámico intelectual. Una traducción ideal de la realidad, desplazando,
rotando y escalando componentes, a partir de la utilización de operaciones geométrico-digitales desarrolladas
dentro del marco diagramático cartesiano de una retícula ideal.
Una manipulación de formas, especies arquitectónicas capaces de proliferar, mutar y evolucionar, como si de
un banco genético se tratase, que construyen en el camino un nuevo registro de la génesis del proyecto. Se
trata de un prototipo de retroalimentación expresado a través de un proceso que oscila entre la visualización
y la interacción de la información. Una arquitectura criada y creada en el ciberespacio, a partir de sistemas
abstractos con capacidad para transmitir y evolucionar (Montaner, 2008, p. 196).
En el campo de la arquitectura, los diagramas digitales se han transformado en una interface operativa al
mostrar las relaciones presentes entre el tiempo real y los flujos de información. Un pensamiento potenciado
por los sistemas digitales, y que posibilita la vinculación de dos mundos: el de la naturaleza y la ciencia con el
de la arquitectura y el diseño.
A partir de Eisenman, se ha transformado una idea abstracta, mediante diagramas geométrico-funcionales,
en un instrumento fundamental, capaz de describir y representar un nuevo mundo digital que ha hecho insuficiente la geometría cartesiana.
Y así como la Beaux Arts utilizaba la composición y el mecanismo de parti para el desarrollo de sus proyectos, en la contemporaneidad, a partir de los planteos de Eisenman y del desarrollo de la tecnología digital, le
correspondería una arquitectura que utiliza como instrumento los diagramas (Montaner, 2014, p. 10).
Los diagramas de Peter Eisenman
Considerado un precursor de la arquitectura morfogenética, desde su etapa como estudiante de doctorado, el
arquitecto y teórico estadounidense Peter Eisenman (1932) ha otorgado un importante peso instrumental a los
diagramas. En su tesis “The Formol Bosis of Modern Architecture”1 de 1963, analizaría la obra del arquitecto
racionalista italiano Giuseppe Terragni (1904-1943). A través de diagramas, Eisenman desarrollaría una lectura
270 crítica y textual de la obra de Terragni, definiendo formalmente su arquitectura desde un punto de vista estético.
A finales de los años sesenta, Eisenman comenzó a trabajar con las teorías del lenguaje de Noam Chomsky
(1928), un filósofo y lingüista estadounidense que había publicado en 1957 Syntactic Structure”2, en donde
postulaba el concepto de “gramática generativa”, un conjunto de reglas innatas del cerebro humano que permitía la traducción de una combinación de ideas en una combinación de códigos.
Bajo una visión hermenéutica, Eisenman desarrollaría un profundo proceso de investigación proyectual en el que
los diagramas se transformarían en una herramienta de diseño, una máquina abstracta capaz de engendrar su
arquitectura dentro de un contexto operacional (Montaner, 2014, pp. 63-64).
A través de sus proyectos, Eisenman buscaba dar forma a las teorías del lenguaje de Chomsky: un sistema
generativo utilizado en la arquitectura como una convergencia de biología, informática y electrónica, capaz
de producir “algo nuevo”, una “…decodificación, manipulación y eventual reprogramación de los códigos de
información de la materia viva” (Vrachliotis, 2008, pp. 232-261).
1. Eisenman, P. (1963). “The Formol Bosis of Modern Architecture”, Dissertation 1963, Facsimile, Baden: Lars Müller Publishers, 2006.
2. Chomsky, N. (1957). Syntactic Structures. Paris: Mouton Publishers.
Marcelo A. Fraile - Arquitectura biodigital
Biocentro para la Universidad de Frankfurt am Main, República
Federal Alemana, 1987
Uno de los ejemplos que mejor define el concepto de arquitectura biodiagramática es el proyecto del Biocentro para la Universidad J. W. Goethe
de Frankfurt, de 1987, del arquitecto americano Peter Eisenman y Thomas
Leeser3.
Premio especial del Concurso Internacional para el desarrollo de un
Centro de Investigaciones Biológicas Avanzadas, de la Universidad de
Frankfurt. El proyecto preveía la ampliación de los laboratorios y espacios anexos a los edificios ya existentes.
Con el fin de cumplir los objetivos requeridos por la Universidad de
Frankfurt, Eisenman plantearía su proyecto a partir de tres criterios básicos. En primer lugar, permitir la máxima interacción entre las áreas
funcionales y las personas que las utilizan; en segundo lugar, permitir
la adaptación a futuros cambios, para posibilitar su crecimiento dentro
de 10 años; y finalmente, en tercer término, permitir la conservación del
lugar como reserva verde (Eisenman & Glaister, 1988).
Establecidos estos conceptos, Eisenman decide abandonar los criterios
de la arquitectura tradicional, difuminando los límites interdisciplinares
con el fin de explorar otras opciones proyectuales.
Para esto, inicialmente comenzó experimentando con geometrías fractales, luego con morphing, hasta que finalmente, a través de un diagrama encontrado dentro de un libro de biología, descubriría los procesos
químicos existentes en el ADN: un proceso dinámico e interactivo que
posibilitaba la transformación de una cosa en otra totalmente distinta.
Partiendo de la representación “gráfica” tradicional que la biología hace
del ADN, Eisenman establece una relación entre los procesos biológicos
y los procesos arquitectónicos, interpretados en términos geométricos.
En otras palabras, establece una codificación genética de las partes del
proyecto en diferentes escalas para la generación de la forma.
Utilizando la matemática y la tecnología para demostrar sus teorías,
Eisenman sustituye la geometría euclidiana clásica por una geometría
fraccionaria mucho más compleja: un intento por abrir las puertas a las
misteriosas profundidades operativas del ADN.
El modelo biológico como “cómplice” del proyecto
Como vimos en el capítulo 4.2, cada molécula del ADN se encuentra
formada por “…fosfatos y azúcares, que conforman su arquitectura estructural, y por elementos químicos ricos en nitrógeno denominados nucleótidos o bases, que codifican la información genética” (Henderson,
2011, p. 37).
3. El biocentro formó parte de la exposición Deconstructivist Architecture (MoMA)
New York, 1988.
Fig. 2. Eisenman desarrollaría un proceso de investigación proyectual en el
que los diagramas se transformarían
en una poderosa herramienta de diseño (Montaner, 2014, pp. 63-64).
271
Parte IV. La génesis de un nuevo paradigma
La información del ADN es transmitida a través del ARN en una conexión lineal mediante un alfabeto de cuatro letras: adenina (A), timina (T),
citosina (C) y guanina (G). Cuatro aminoácidos que se vinculan para
desarrollar organismos vivos.
Cada una de estas bases posee una pareja natural para unirse, A con
T, y C con G, y viceversa. Una propiedad de complementariedad que
permite que si una de las hileras dice GAGAG, en la otra solo podrá decir CTCTC. De esto se desprende que a partir de una hilera es posible
reconstruir a la otra, y en conjunto conformar las instrucciones con que
se redacta el código genético. Su posición dentro de una larga cadena
de ADN determinará la información genética, es decir, las instrucciones
necesarias para el surgimiento y desarrollo de la vida.
De acuerdo con el modelo biológico, cuando una de estas se divide, la
doble hélice del ADN se abre por la mitad en sus dos cadenas constituyentes. Cada mitad sirve de plantilla para la replicación, proceso que
conduce a la creación de una nueva forma: una encima añadirá nuevas
bases a las letras de cada cadena, emparejando las A con T y las C
con G, lo que da finalmente como resultado la aparición de dos nuevas
dobles cadenas de ADN. Una manera fiable de transmitir la herencia y
producir otro organismo idéntico al original (Henderson, 2011, p. 41).
En este sentido, la secuencia del ADN codifica doblemente la información genética, lo que facilita su copia. Una garantía de la supervivencia
a partir de la generación de respuestas a los estímulos externos (exógenos) e internos (endógenos), pudiendo modificar su composición y
Fig. 3. Descripción y diagramas esquematicos de una porcion del ADN
utilizado por Eisenman para el proyecto del Biocentro. C.A. Villee and V. G.
272
Dethier, Biological Principles and processes. Saunders, 1971.
forma a fin de especializarse en los diferentes órganos y organismos
existentes en la naturaleza: desde las formas poligonales que se encuentran en los vegetales hasta las delgadas y alargadas células de los
músculos en los animales.
Eisenman utiliza este modelo biológico para establecer una analogía
entre biología y arquitectura. En este sentido, no se trata de observar la
naturaleza para copiarla, el proceso es más profundo y, por consiguiente, más complejo: toma la representación artificial del ADN desarrollado por los científicos para elaborar un proceso evolutivo, una simulación
y modelización de los procesos naturales a través de la computadora.
De este modo, el proyecto se apropia de la forma del diagrama, adopta
su lógica y organización espacial. La relación entre el proyecto y lo que
representa el dibujo es concebida como una nueva manera de organizar el diseño.
Del esquema biológico inicial, Eisenman utiliza cuatro formas, cada una
con un color que simboliza el código del ADN. Estas formas gráficas
presentan particularidades específicas que les permiten unirse en parejas, “codificando” finalmente una larga cadena de doble hélice. Una
secuencia de comandos que, como oraciones, podían ser reproducidas
para generar el proyecto (Eisenman & Glaister, 1988).
Marcelo A. Fraile - Arquitectura biodigital
Un proyecto que surge de una geometría genérica y abstracta que
se distancia de la construcción arquitectónica a través del manejo de
redes; mallas; procesos de multiplicación, giro, división y distorsión,
para desarrollar finalmente un universo que le es propio (Cosme Muñoz, 2008, p. 172).
El papel de la tecnología en la generación del proyecto
Para este diseño, Eisenman utiliza los sistemas digitales no como herramientas de representación, sino como instrumentos para pensar y
hacer arquitectura. Un proceso “…que llegue más allá de los límites que
impone la tradición y que establezca complicidad con los programas que
le dan origen, para enriquecerse con la pluralidad y la diversidad de
los saberes de otras disciplinas ajenas a la arquitectura” (Eisenman &
Glaister, 1988).
Durante el proceso, el diseñador desconoce lo que habrá de desarrollarse, no existe una imagen preconcebida al respecto. Al carecer de
una estructura narrativa, la computadora permite una mayor apertura
a todas las posibilidades, sin condicionantes previos (Cosme Muñoz,
2008, p. 172).
A pesar de esto, el problema no estaba completamente resuelto. Pese a
la disponibilidad de algunos programas de modelado, la tecnología para
diseñar, tal como la conocemos ahora, no existía en ese momento. Solo
había rudimentarias herramientas experimentales que se encontraban
en algunas universidades, en los laboratorios de grandes compañías y
en las fuerzas armadas de los EE.UU.
Fig. 4. La información del ADN es
transmitida a través del ARN en una
conexión lineal mediante un alfabeto
de cuatro letras: adenina (A), timina
(T), citosina (C) y guanina (G). Cuatro
aminoácidos que se vinculan para desarrollar organismos vivos.
Afortunadamente, en la década de 1980, Eisenman se encontraba enseñando en la Universidad Estatal de Ohio donde Chris Yessios4 impartía
clases de informática, y Jerry Voss era el director de la Universidad. Voss
era un fuerte defensor del uso de las computadoras, había establecido
un proyecto conjunto con IBM para que la Universidad pudiera utilizar
una IBM 3350 con 16 terminales5.
273
A partir de la conjunción de estos factores, Eisenman convenció a Yessios para que este lo ayudara en el proyecto del Biocentro desarrollando
un conjunto de nuevas herramientas informáticas capaces de generar
patrones 2D y 3D, un instrumento lingüístico racional que evolucionaría
en paralelo con el diseño.
4. Chris Yessios. Doctorado en diseño asistido por ordenador de la Universidad
Carnegie Mellon en 1973. Dirigió el Programa de Postgrado en Diseño Asistido
por Computadora Arquitectónica en la Universidad Estatal de Ohio donde enseñó desde 1973 hasta 1995. Sus investigaciones dieron lugar a una serie de
sistemas de modelado 3D como FormZ y bonzai3d.
5. En 1982, se le encarga a Peter Eisenman el diseño del proyecto para el Wexner Center for the Arts and Fine Arts Library, Columbus, Ohio: un laboratorio
internacional para la exploración y desarrollo de las artes contemporáneas. El
centro Wexner fue el primer edificio diseñado por Eisenman, con la ayuda de
los sistemas digitales. Contó con la ayuda de Jerry Voss y Chris Yessios quien
diseñaría una plataforma denominada ArchiModos que después fue rebautizada
como FormZ (Lynn, 2013).
Fig. 5. Eisenman utiliza este modelo
biológico para establecer una analogía entre biología y arquitectura. En
este sentido, no se trata de observar
la naturaleza para copiarla, el proceso
es más profundo y, por consiguiente,
más complejo
Parte IV. La génesis de un nuevo paradigma
Con esta nueva tecnología, Eisenman podía interpretar la escena en
tres dimensiones para posteriormente plasmarla en una documentación bidimensional: archivos vectoriales que permitían definir formas
regulares dentro de un espacio cartesiano mediante coordenadas y
parámetros numéricos. Para Greg Lynn, estamos en presencia de una
arquitectura protoparamétrica, un proceso evolutivo no lineal en donde
pueden descubrirse las instrucciones, los algoritmos personalizados
que generaron el proyecto (2013).
Fig. 6. Para este diseño, Eisenman
Sin embargo, como Eisenman no sabía nada sobre sistemas informáti-
utiliza los sistemas digitales no como
cos, el proceso fue desarrollado de una manera híbrida, entre digital y
analógico, entre las indicaciones de Eiseman y los códigos de Yessios,
que se transformaban en formas ajustables con capacidad de visualiza-
herramientas de representación, sino
como instrumentos para pensar y hacer arquitectura.
ción del espacio.
El proyecto se desarrolló entre el laboratorio de la Universidad Estatal de
Ohio y el estudio de Eisenman, en donde cada mañana se recibía un paquete de una mensajería privada (FedEx) que contenía en su interior los
planos, un modelado alámbrico del proyecto para el Biocentro, impreso
en papel Mylar (Lynn, 2013).
Posteriormente, se fotocopiaba, ampliaba y marcaba en rojo las modificaciones y las diferentes alternativas para finalmente dictarlas telefónicamente, a través de un complejo código de letras desarrollado para ese
fin: un código que terminaba siendo una analogía con los códigos del
Fig. 7. Cada mañana se recibía un
paquete de una mensajería privada
(FedEx) que contenía en su interior
los planos, un modelado alámbrico
del proyecto para el Biocentro. Posteriormente, se fotocopiaba, ampliaba y
marcaba en rojo las modificaciones y
las diferentes alternativas impreso en
papel Mylar (Lynn, 2013).
274
ADN. Con cada modificación de Eisenman, Yessios debía desarrollar un
nuevo código, un proceso casi artesanal que pudiera hacer posible ese
tipo de operaciones. Alrededor de 150 variaciones de proyecto, en un ir y
venir entre el dibujo manual y el dibujo digital (Lynn, 2013).
El Biocentro fue uno de los primeros proyectos en donde se desarrollaron modelos 3D a partir del añadido de una tercera dimensión (Z) a
las figuras bidimensionales. Los modelos creados eran simples representaciones lineales de la envolvente del objeto, esto permitía operar
Marcelo A. Fraile - Arquitectura biodigital
y desarrollar procesos dinámicos de escalado, traslación, reflexión,
rotación y corte, tanto uniforme como no uniforme.
Durante el proceso, se creaban capas de información para organizar
las operaciones. Un palimpsesto donde los diagramas se iban superponiendo en layers diferentes que ofrecían vistas polivalentes, operando
con una complejidad similar a los procesos que se pretendía reproducir.
En 1997, Alejandro Zaera-Polo le pregunta a Eisenman sobre el uso
de las computadoras en el diseño del Biocentro, a lo que responde:
“Yo dependo cada vez más de los ordenadores porque a través
de ellos podemos producir cosas que no podíamos producir hace
veinte años” (Zaera-Polo, 1997, p. 13). Sin embargo, dieciséis años
después, en el 2013, Greg Lynn le hace la misma pregunta, a lo que
responde: “No se utilizó ningún equipo en el Biozentrum, yo era el
equipo” (Lynn, 2013). Pese a esto, planos, archivos y testimonios del
resto de los involucrados atestiguan lo contrario.
Fig. 8. Eisenman selecciona los cinco
pares de figuras ubicados cerca del
El diagrama biológico
Para el proyecto, Eisenman extiende sobre el terreno las figuras del diagrama biológico, dibujando una línea recta que comienza en la entrada
principal del predio: “…una secuencia exacta de la cadena ADN para el
colágeno, proteína que produce la resistencia a la tracción necesaria
en la estructura biológica” (1988). Una interpretación de los procesos
biológicos a través del uso de geometrías fraccionarias, donde “…las
formas geométricas crecen por la aplicación de una forma generatriz a
una forma base” (Eisenman & Glaister, 1988).
edificio de química existente para convertirse en los nuevos laboratorios del
proyecto.
Eisenman selecciona los cinco pares de figuras ubicados cerca del edificio de química existente para convertirse en los nuevos laboratorios
del proyecto. Una descomposición del objeto en sus partes básicas,
para luego aplicarle una serie de transformaciones geométricas.
Estos pares de figuras son transformados mediante la acción sucesiva
de tres procesos similares a los que utiliza el ADN para fabricar proteínas: tres comportamientos propios de la morfogénesis que son adoptados y aplicados sobre las formas geométricas simples. Estos son: la
replicación, transcripción y traslación.
El primer comportamiento es el de la replicación, un proceso biológico donde la cadena de ADN se divide en dos, y atrae a sus complementarios con el fin de generar dos nuevas cadenas idénticas.
Eisenman utiliza este concepto en arquitectura, tomando al código
del colágeno como forma base y a su complementario como forma
generatriz, de este modo cada figura base queda vinculada a su complementaria (1988).
El segundo comportamiento es el de la transcripción, un proceso biológico donde la cadena del ADN se suelta temporalmente y una de las
hebras se inserta en el vacío resultante, lo que produce una copia complementaria de solo una de sus hebras expuestas, omitiendo el resto
275
Fig. 9. Eisenman extiende sobre el terreno una secuencia exacta de la cadena ADN para el colágeno, dibujando una línea recta que comienza en
la entrada principal del predio (1988).
Parte IV. La génesis de un nuevo paradigma
(MNRA). Eisenman utiliza este concepto en arquitectura, aplicándolo
únicamente a las superficies internas de las hebras inferiores de los cinco pares originales. De este modo “Las figuras producidas en el primer
proceso se convierten ahora en la forma base y sus complementarias en
la forma generatriz” (Eisenman & Glaister, 1988).
Finalmente, el tercer comportamiento es el de la traslación, un proceso
biológico donde se transporta la unidad estructural (aminoácidos) al lugar de construcción de la proteína y se la abandona en una cadena de
unidades depositadas anteriormente por otras hebras TRNA. Eisenman
utiliza este concepto en arquitectura para tratar dos grupos de hebras
superiores de figuras originales, desplazándolas y dejando trazos del
edificio de biología con las formas rectilíneas del edificio de química. De
este modo, “…el proceso de traslación permite que el edificio de química sea leído en su emplazamiento como la cadena de unidades estructurales del polipéptido. La arquitectura del biocentro es trasladada así a
la del edificio de química”. (Eisenman & Glaister, 1988).
276 Fig. 10. Pruebas de elevación y perspectiva.
Fig. 11. Proceso de replicación.
Fig. 12. Proceso de transcripción.
El proyecto presenta una serie de colores de acuerdo con el código de
matices del modelo biológico: las figuras originales tienen un tono claro;
las producidas por replicación, un tono oscuro; y las producidas por transcripción, un tono intermedio; en tanto que los trazos provocados por los
procesos de traslación tienen el mismo color que el edificio de química del
que proceden.
También puede apreciarse en el proyecto una serie de líneas de trazo
que simbolizan el proceso de traslación. En este sentido, para Eisenman
el proceso es el elemento fundamental del proyecto: “Lo que interesa,
más que la propia obra de arquitectura, es la ‘biografía’ del proyecto, y
de ahí el interés en que se conserve vivo el testimonio de lo que fue su
proceso de gestación” (Cosme Muñoz, 2008, p. 170).
Durante el proyecto, el equipo de diseño buscaba desarrollar lo que
ellos llamaban macrotransformations, una rutina que agrupara un conjunto de transformaciones como traslación, rotación y extensión: ope-
Marcelo A. Fraile - Arquitectura biodigital
Fig. 13. Durante el proyecto, el equipo
de diseño buscaba desarrollar lo que
ellos llamaban macrotransformations,
una rutina que agrupara un conjunto
de transformaciones como traslación,
rotación y extensión: operaciones que
pudieran ser aplicadas varias veces
sobre las formas y que mediante el
cambio de alguno de los parámetros
se produjeran múltiples repercusiones.
277
Parte IV. La génesis de un nuevo paradigma
raciones que pudieran ser aplicadas varias veces sobre las formas y
que mediante el cambio de alguno de los parámetros se produjeran
múltiples repercusiones.
Lamentablemente, a causa de las actualizaciones de programas y equipos, todos los archivos digitales originales se perdieron. Lo único que
permanece son las impresiones matriciales, copias heliográficas, y las
ampliaciones de los planos (Lynn, 2013).
El Cubo de Agua
Otro interesante proyecto es el Centro Acuático Nacional de Beijing, mejor conocido como Water Cube o Cubo de Agua. Con una capacidad
para 17.000 espectadores, fue designado como sede de los XXIX Juegos Olímpicos realizados en la ciudad de Beijing, China, en 2008. Una
estructura celular a gran escala diseñada por la firma australiana PTW
Architects, CSCEC International Design & Arup.
Para este proyecto, los diseñadores concibieron el edificio inspirándose
en las investigaciones teóricas de los físicos irlandeses Dennis Lawrence Weaire (1942) y Robert Phelan (1936), quienes habían creado conceptualmente en 1993 una estructura geométrica que consistía en la
combinación de dos tipos de celdas de igual volumen: un dodecaedro
pentagonal irregular, y un tetracaidecaedro con dos hexágonos y doce
pentágonos, cuyas caras presentaban una ligera curvatura.
Para los autores, el diseño final semeja ser un bloque sólido de agua,
una geometría compleja que parece imitar las situaciones arbitrarias y
de azar que se encuentran en las formas naturales, como por ejemplo
en el agrupamiento de burbujas de jabón (Hwang, Brotons, Galán, &
Soriano, 2006, p. 70).
278
Fig. 14. La geometría Weaire-Phelan,
consiste en la combinación de dos
tipos de celdas de igual volumen: un
dodecaedro pentagonal irregular, y un
tetracaidecaedro con dos hexágonos
y doce pentágonos, cuyas caras presentaban una ligera curvatura.
Inicialmente, los diseñadores partieron de una serie infinita de espuma,
en la que se cortaron las dimensiones exteriores del edificio: 177 x 177
x 33 m. A continuación, a la forma obtenida se le sustrajeron los tres
espacios interiores correspondientes a cada una de las zonas del edificio para posibilitar su delimitación topológica. Finalmente, con la ayuda
de complejos algoritmos matemáticos y sistemas digitales CAD, fue
posible modelar las geometrías Weaire-Phelan, analizando sus condiciones estructurales y ensayando posibles alternativas de piezas, secciones y nodos. Un examen que incluyó hasta 200 tipos de carga que
variaban desde terremotos hasta vientos huracanados, lo que permitió
hacer cambios en el modelo hasta que este alcanzó el patrón óptimo
de distribución de sus 22.000 elementos de acero, de 10 grosores y 3
longitudes diferentes.
Estos elementos se unieron formando un ángulo tetraédrico de 104, 9º,
mediante 12.000 conectores esféricos de 4 tipos distintos, para construir
un marco espacial, una estructura metálica ligera, en el que se sujetaron
4.000 diferentes paneles burbujas de ETFE, (7 variantes repetidos en la
Marcelo A. Fraile - Arquitectura biodigital
cubierta y 16 variantes en los muros), con un tamaño de 7 metros y 0,2
mm de espesor6.
El ETFE, o etileno-tetra-fluoretileno es un plástico derivado del teflón
(PTFE), con una gran resistencia a los agentes químicos y mecánicos, lo
que le permite tolerar la exposición a los rayos ultravioletas sin cambiar
de color. Fue utilizado por primera vez para el estadio Allianz Arena del
Mundial de Fútbol Alemania 2006.
A fin de maximizar la eficacia térmica del edificio, cada burbuja de
ETFE es inflada constantemente por medio de bombas de baja presión, lo que genera una doble cámara. De este modo, de acuerdo con
la presión de cada burbuja, es posible “…controlar los niveles de luz
para crear un efecto parecido al paso de la luz por entre los árboles o
bajo el agua… o incluso se puede ‘apagar’ por completo” (Hwang et al.,
2006, p. 80).
Fig. 15. con la ayuda de complejos
algoritmos matemáticos y sistemas
digitales CAD, fue posible modelar
las geometrías Weaire-Phelan, analizando sus condiciones estructurales
y ensayando posibles alternativas de
piezas, secciones y nodos.
Con la intención de conseguir un equilibrio ideal con el clima, la fachada
del edificio puede ser configurada para adoptar tres modos de funcionamiento: invierno, verano y entretiempo. En invierno, las burbujas de
ETFE actúan produciendo un efecto invernadero: permiten el ingreso de
la radiación solar para el calentamiento interior y posibilitan la iluminación natural de los espacios. Situación que reduce el consumo energético del edificio en 30%. En tanto que, en verano, una serie de dibujos
punteados dispuestos estratégicamente sobre la superficie del material,
con una densidad variable de acuerdo con el sitio, impide el paso de la
radiación solar y produce una variación en el sombreado de la fachada
que, combinado con una ventilación inteligente de la estructura de soporte, disminuye la energía necesaria para la climatización del edificio.
Los diagramas del nuevo milenio
El pensamiento diagramático, potenciado a través de los sistemas digitales, se ha transformado en un tema central para la teoría y el diseño.
Para el arquitecto español Alejandro Zaera-Polo (1953), el uso de los
diagramas en la arquitectura ocupan un papel relevante para reconfigurar el diseño, ya que mediante la comprobación de sus operaciones
filogenéticas estas revelan qué rasgos han tenido éxito y bajo qué condiciones (Martínez López & Pueblo Pons, 2010, pp. 96-105).
Una nueva sintaxis de relaciones morfogenéticas que posibilitan al diseñador crear y manipular nuevas formas, permitiendo incluir y procesar
un sinnúmero de variables que antes hubiera sido imposible manejar.
Sistemas proyectuales abiertos y evolutivos que utilizan los diagramas
como una herramienta de experimentación, en un intento por superar la
rigidez del proceso del diseño tradicional.
6. Los elementos exteriores de la estructura son rectangulares con el fin de proporcionar un marco de fijación a la película ETFE, en tanto que los elementos
interiores, son tubulares, con el objetivo de facilitar la construcción y conexión
entre estos.
279
Parte IV. La génesis de un nuevo paradigma
Fig. 16. Inicialmente, los diseñadores partieron de una serie infinita de
espuma, en la que se cortaron las
dimensiones exteriores del edificio:
177 x 177 x 33 m. A continuación, a
la forma obtenida se le sustrajeron
los tres espacios interiores correspondientes a cada una de las zonas
del edificio para posibilitar su delimitación topológica.
Por su parte, el arquitecto estadounidense William Braham, considera
que el verdadero impacto de los diagramas digitales viene dado en su
poder para mostrar resultados dinámicos no lineales, donde las influencias particulares de una situación de diseño son mostradas como resultado de un todo. En este sentido, bajo una lógica algorítmica, estos
diagramas son capaces de retroalimentarse, lo que posibilita calcular,
manipular y presentar en tiempo real, calidades como el movimiento,
la transformación o los flujos de información (Martínez López & Pueblo
Pons, 2010, pp. 96-105).
Fig. 17. A partir de dos células WeairePhelan, el sistema permitió generar
un bloque tridimensional de 400 m3
de células anidadas. Posteriormente,
280 el prisma es rotado a partir de un án-
gulo con cierto grado de aleatoriedad.
A continuación, se realizan una serie
de cortes en el bloque para encajar
primero en la altura del edificio, y después en su huella. Este proceso permite crear un nuevo bloque con una
estructura completamente aleatoria
(Hwang et al., 2006, p. 72).
Marcelo A. Fraile - Arquitectura biodigital
Fig. 18. Con el fin de conseguir un
equilibrio ideal con el clima, la fachada del edificio puede ser configurada
para adoptar tres modos de funcionamiento: invierno, verano y entretiempo.
281
Fig. 19. Una serie de dibujos punteados dispuestos estratégicamente sobre la superficie del material, con una
densidad variable de acuerdo con el
sitio, impide el paso de la radiación
solar y produce una variación en el
sombreado de la fachada que combinado con una ventilación inteligente
de la estructura de soporte disminuye
la energía necesaria para la climatización del edificio.
Parte IV. La génesis de un nuevo paradigma
Figuras
Fig. 1. Diagrama de ciudad jardín de Ebenezer Howard. http://vaneesterenmuseum.nl/wp-content/uploads/2014/06/
gardencities.jpg
Fig. 2. Diagrama utilizado por Peter Eisenman. http://diagramasenarquitectura.blogspot.com.ar/2012/03/estrategias-deproyecto-entrevista.html
Fig. 3. a Fig. 7. Biocentro. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman,
Shoei Yoh. Montreal: Canadian Centre for Architecture.
Fig. 8. y Fig. 9. Biocentro. Eisenman, P., & Glaister, C. (1988). Biocentro para la Universidad de Frankfurt. Arquitectura.
Revista del Colegio Oficial de Arquitectos de Madrid, (270).
Fig. 10. a la Fig. 13. Biocentro. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck
Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture.
Fig. 14. Geometría Weaire-Phelan. https://samjshah.com/2008/08/17/lord-kelvin-bubbles-and-the-olympics/
Fig. 15. Geometría Weaire-Phelan. http://www.chrisbosse.de/watercube/model3.jpg
Fig. 16. Cubo de Agua. https://arquidocs.wordpress.com/2008/08/25/water-cube-en-beijing/
Fig. 17. Proceso de diseño. https://samjshah.com/2008/08/17/lord-kelvin-bubbles-and-the-olympics/
Fig. 18. Cubo de Agua. http://www.ptw.com.au/ptw_project/watercube-national-swimming-centre/
Fig. 19. Cubo de Agua. https://ar.pinterest.com/pin/118782508898915904/
282
Marcelo A. Fraile - Arquitectura biodigital
ARQUITECTURA BIOALGORÍTMICA
El concepto de emergencia en la arquitectura
De acuerdo a las investigaciones del arquitecto británico Michael Weinstock, la palabra emergencia comenzó
a utilizarse a comienzo de la década de 1980, para referirse a los hechos de la forma y el comportamiento de
los sistemas complejos en el mundo natural, explicados desde una base matemática.
Tiempo después, durante la década del 90, el concepto de emergencia quedo definido como “…aquellas propiedades o procesos de un sistema no reducibles a las propiedades o procesos de sus partes constituyentes”
(López Fernández, 2009, p. 49).
Finalmente, en la última década, el concepto de emergencia quedo delimitado como un concepto científico
presente en la naturaleza que permite describir “…el comportamiento de ciertos sistemas de orden superior,
los cuales están constituidos por componentes que funcionan con una información relativamente simple que
los vincula entre sí y los integra descentralizadamente en un ambiente” (Muñoz Kuri, 2011). Es decir, explica
de qué manera se crean sistemas complejos a partir de reglas simples.
La emergencia es una ciencia nueva, que implica un proceso evolutivo y explora cómo a partir de los sistemas
naturales se pueden crear sistemas artificiales de comportamiento complejo.
Esto posibilita una nueva forma de ver y entender la arquitectura, equiparándola con un organismo vivo, a
través del uso de las matemáticas, las ciencias biológicas y la genética.
Para Weinstock, las propiedades de un sistema emergente no pueden deducirse de sus componentes, “las
propiedades emergentes son más que las sumas de sus partes… las cuales tienen propiedades distintivas
que emergen a través de los procesos de sucesivas interacciones entre diferentes niveles de organización e
integración” (Hensel et al., 2010, pp. 34-41).
La emergencia ha generado un proceso que desdibuja las fronteras entre ciencia y arquitectura. Su aplicación
ha introducido cambios profundos en el diseño y su materialización. Enfocada desde una óptica biológica,
busca simbolizar el espíritu de los tiempos que aprovecha el concepto de una naturaleza en evolución para 283
buscar principios, organizaciones, las leyes matemáticas presentes en los sistemas naturales factibles de ser
usadas en los sistemas artificiales.
Desde un punto de vista morfogenético, el concepto de emergencia es asociado con “…una fuerza renovadora, mutante, operativa, capaz de transformar por completo las condiciones ambientales de los distintos
sistemas ecológicos que engloban la vida en este planeta” (Muñoz Kuri, 2011). Su utilización en la arquitectura
posibilita el desarrollo de nuevas estrategias de diseño, derivadas de las propiedades del metabolismo y la
evolución de los sistemas vivos y cómo se adaptan a las transformaciones del entorno.
Para los profesores belgas Tom de Wolf y Tom Holvoet, de la universidad de Leuven, la autoorganización en
un sistema emergente, “…es un proceso dinámico y adaptable en la que los sistemas adquieren y mantienen
sus propias estructuras sin control externo” (Hensel et al., 2010, p. 9 y ss.).
Los sistemas evolucionan naturalmente para desarrollar una complejidad emergente: un comportamiento colectivo que surge de la interacción de millones de componentes simples. Se trata de un proceso sinérgico que
depende del aumento de la variedad (diferencia) y de la dependencia (conexión) de las partes componentes.
Parte IV. La génesis de un nuevo paradigma
Códigos y comandos permiten desarrollar simulaciones dinámicas, formas variables que responden a las
condiciones cambiantes del entorno.
Estos nuevos sistemas buscan controlar la materia y la energía, a través de un método de aproximación sucesiva por escalas y niveles de jerarquía, a través de patrones de configuración emergente que involucran nuevos aspectos de materialización. Se trata de un proceso de autoorganización y supervivencia, “…en oposición
a los conceptos de reduccionismo y dualismo” (López Fernández, 2009, p. 5); un proceso que se desarrolla en
múltiples escalas, que coevolucionan, a través de pequeñas mutaciones aleatorias; un procedimiento capaz
de producir, desarrollar y mantener formas o estructuras biodigitales o patrones genéricos de autogeneración,
de donde la forma emerge. En síntesis, un proceso “estocástico” que nunca arribará a un mismo resultado.
Gordon Pask. Los aportes de la cibernética
El psicólogo británico Andrew Gordon Pask (1928-1996) fue uno de los padres fundadores de la cibernética,
una ciencia que, a través de un proceso dinámico, buscaba desarrollar una interacción efectiva del hombre con
la máquina, en la cual los participantes aprendieran unos sobre otros (Pask, 1975).
Preocupado por el papel de las computadoras en la sociedad contemporánea, buscaba en sus trabajos construir un vínculo entre las ciencias naturales, las ciencias sociales y las humanidades, presentando las estrategias inspiradas en la biología y vinculadas con las ideas de la cibernética, la teoría de la información y la
tecnología de la información.
En 1969, Pask publicó The Architectural Relevante of Cybernetics, un texto en el que aparece un intento por
incorporar los principios evolutivos al pensamiento de la arquitectura.
Entre las ventajas citadas por Pask, con esta interacción “…era posible utilizar la terminología y los conceptos
de la cibernética para observar los procesos físicos, intelectuales y también organizativos y de comunicación
arquitectónica como sistemas formalizados” (Vrachliotis, 2008, pp. 232-261).
Considerando el potencial de la cibernética en la arquitectura, Pask utilizó el término “metalenguaje” para describir un “…diseño autogenerativo…[un] modelo de simulación de los procesos de crecimiento de espacialidad
extendida, no lineales, que se producirían utilizando la teoría cibernética en arquitectura” (Vrachliotis, 2008,
pp. 232-261).
284
Este punto de vista generativo considera que el desarrollo de un sistema arquitectónico se logra a través de
un conjunto abstracto de reglas simples y repetitivas que interactúan entre sí, una serie de relaciones que
responden unas a otras y que devuelven estas interacciones al sistema con un criterio jerárquico.
Desde esta óptica, el metalenguaje de Pask puede considerarse como un aporte pionero en el desarrollo de
modelos evolutivos aplicados en la arquitectura digital.
Centrándose en los principios de autoorganización, el psicólogo británico utiliza un modelo evolutivo en la
arquitectura, donde los sistemas, crecen y se desarrollan: “…una abstracción de los conceptos biocibernéticos
de la tecnología más que en una actitud intelectual que incluyese una filosofía social o tecnológica” (Vrachliotis, 2008, pp. 232-261)2008, pp. 232-261. Para ello, utiliza una programación dinámica, capaz de reducir el
tiempo de ejecución de un algoritmo mediante la utilización de subprogramas superpuestos.
Este tipo de programación es atribuido al matemático norteamericano Richard Bellman (1920-1984) quien, en
1953, inventó un sistema para la resolución de problemas complejos donde se necesitará calcular las mejores
soluciones consecutivas. Una subestructura óptima para encontrar soluciones a un conjunto de problemas.
Dicha programación puede seguir dos enfoques: Top-down, donde el problema se divide en subproblemas
que se resuelven recordando las soluciones nuevamente; y Botton-up, donde se resuelven los problemas de
Marcelo A. Fraile - Arquitectura biodigital
antemano y se usan para resolver problemas mayores. Este último es ligeramente mejor al consumir menos
recursos (Vrachliotis, 2008, pp. 232-261).
Actualmente el diálogo entre la arquitectura y las computadoras ha crecido de un modo exponencial. Su foco
ya no está centrado en el desarrollo de geometrías complejas, sino que el debate se ha desplazado hacia el
análisis de ciertos aspectos de los códigos de la materia viva como pueden ser la decodificación, manipulación y posible reprogramación.
Para llegar a los objetivos propuestos, el sistema debe presentar cuatro factores que determinen su calidad. En primer lugar, su corrección: un programa es correcto si hace lo que debe hacer tal y como se
estableció en las fases previas a su desarrollo; en segundo lugar, su claridad, sencillez y coherencia estructural, ya que es muy importante que el programa sea lo más claro y legible posible para facilitar así su
desarrollo y posterior mantenimiento; en tercer lugar, su eficiencia, ya que el programa, además de realizar
aquello para lo que fue creado (es decir, que sea correcto), lo tiene que hacer gestionando de la mejor forma posible los recursos que utiliza; y, finalmente, en cuarto lugar, su portabilidad, un programa debe ser
portable, es decir, tener la capacidad de poder ejecutarse en una plataforma, ya sea hardware o software,
diferente a aquella en la que se elaboró1.
El lenguaje genético de la arquitectura de John Frazer
En 1995, el arquitecto británico John Frazer (1945) publicó su libro An Evolutionary Architecture2 en donde, estableciendo una analogía con la naturaleza, propone una representacion genética de la arquitectura: una forma
de vida artificial, representada a partir de un ADN virtual, un código-guion que conduciría hacia el proceso, el
desarrollo y la evolución de las respuestas.
A este concepto, Frazer lo describió como “el lenguaje genético de la arquitectura”, es decir, el conjunto de
reglas generativas, codificadas digitalmente, para generar una estructura en cadena (ADN digital); una serie
de formas similares (pseudo-organismos), las cuales son seleccionadas del conjunto, de acuerdo con criterios
predefinidos (Kolarevic, 2003, pp. 17-45).
Cada individuo es simbolizado a través de una lista de parámetros que reciben el nombre de “cromosomas”
o “genomas”, y son representados por una cadena de datos e instrucciones, donde cada valor 0 o 1 puede
representar una forma curva, recta o ambas.
Luego de un determinado número de generaciones, se selecciona una cantidad de organismos que mutarán 285
modificando sus valores al azar, pequeños cambios en su “código genético” equivalentes a los que se producen entre los genes en la naturaleza.
A continuación, estas nuevas generaciones se cruzarán entre sí para generar una nueva descendencia que
mejore la supervivencia: un proceso gradual y adaptable de acercamiento a la solución a través de generaciones, hasta el momento en que los valores sucesivos no produzcan mejores resultados.
Frazer combinó las teorías morfogenéticas de Turing con las autoformaciones biológicas de Von Neumann, el
metalenguaje de Pask y el juego de Conway, para desarrollar un concepto evolutivo de la arquitectura. Para
ello, se utilizó la computadora como una herramienta para investigar la lógica estructural interna de la arquitectura: en lugar de diseñar desde el inicio las formas, se desarrolla un código a partir del cual, a través de un
proceso de prueba y error, emergerá finalmente la forma (Frazer, 1995, pp. 9-21).
1. Estos cuatro factores están desarrollados en Orciuoli, A. (2011). La enseñanza de la fabricación digital aplicada a la
arquitectura: diseño y producción en la era de la información. Barcelona: ESARQ, UIC. Trabajo de investigación. Programa
de doctorado. Director Dr. Alberto T Estévez.
2. El libro fue publicado en enero de 1995 para que coincidiera con la exposición del mismo nombre celebrada en la Architectural Association, FRAZER, J. (1995). An Evolutionary Architecture, London: architectural Association Publications.
Parte IV. La génesis de un nuevo paradigma
De este modo, la forma es codificada de un modo análogo al crecimiento
de un organismo en la naturaleza. Un diseño autogenerativo que ha sustituido la expresión “form-giving” (dar forma) por la de ‘form-generating,
(en su sentido original significa, “autoproducción de la forma”) (Vrachliotis, 2008, pp. 232-261). Un proceso dinámico, heterogéneo y no-lineal,
capaz de generar formas de una complejidad biológica, a través de la
interacción de componentes simples, sin conductas de centralidad.
Desde este punto de vista, la imagen del diseñador ha evolucionado
hacia la figura de un “editor” de las potencialidades morfogenéticas del
sistema diseñado: sus estados intermedios de desarrollo, sus interpolaciones, sus transiciones, y sus transformaciones. Las formas que emerjan de esto se deberán “…principalmente a la sensibilidad estética y
plástica del diseñador” (Kolarevic, 2003, pp. 17-45).
Para Manuel De Landa, estos nuevos diseñadores que utilizan los algoritmos genéticos digitales se asemejan a una nueva generación de
artesanos que moldean un material virtual teniendo en cuenta las propiedades y los procesos.
Un proceso plástico de transformaciones coherentes, continuas y mutables, a través de la serie de interacciones de fuerzas externas. La tecFig. 1. Su nombre “trabécula” proviene
del latín trabecula, “viga pequeña”, y
se refiere a una “estructura alargada
que, frecuentemente unida o entrecru-
nología digital ha permitido reemplazar la construcción de formas por
el descubrimiento de estas. No se trata de una arquitectura de formas
“blobs”, son reglas que sistematizan la génesis de los organismos vivos
(Kolarevic, 2003, pp. 17-45).
zada con otras, sirve de soporte a un
órgano o atraviesa una cavidad” (RAE,
Asale, 2014).
Trabeculae
Uno de estos proyectos es Trabeculae: diseñado en 2006, por el estudio
286
de arquitectura australiano Supermanoeuvre (Dave Pigram, Iain Maxwell, Brad Rothenberg, y Ezio Blasetti). Su nombre “trabéculae” proviene del
latín trabecŭla, “viga pequeña”, y se refiere a una “estructura alargada
que, frecuentemente unida o entrecruzada con otras, sirve de soporte a
un órgano o atraviesa una cavidad” (RAE, Asale, 2014).
El proyecto Trabeculae busca reinventar el concepto de torres de oficinas: sustituyendo las operaciones de extrusión y repetición tradicional,
para reemplazarlas por un sistema de algoritmos genéticos de ramificación heliotrópica, que confiere a los espacios interiores un mayor acceso
a la iluminación natural (Krauel, 2010, p. 119).
El proceso comienza con una malla estructural, topológicamente libre,
desarrollada a partir de un algoritmo de protosíntesis. A continuación, se
genera un diseño programático cualitativo que expande el atrio central
como elemento definitorio del espacio.
Una vez definido los parámetros iniciales, el programa crea un camino
de diferentes alternativas y geometrías resultantes. Un proceso que tiene como consecuencia la pérdida del objeto arquitectónico para liberarlo en una exploración creativa superior. De este modo, se obtiene una
Marcelo A. Fraile - Arquitectura biodigital
arquitectura generativa, desarrollada como respuesta lógica interna a
los estímulos externos y las condiciones latentes: una compleja red de
aurículas, capaces de concebir diferenciaciones espaciales a través de
múltiples niveles de retroalimentación.
El proyecto deja de ser una entidad pasiva para convertirse en una
máquina tipológicamente libre. Un biomorfo, una estructura tridimensional, recursiva y arbórea. Un sistema que combina la evolución
convergente con la evolución divergente, la selección natural con la
selección artificial.
En este sentido, el diseño algorítmico libera la creatividad del diseñador
a través de una manipulación indirecta de la forma, lo que permite obtener en poco tiempo infinita cantidad de soluciones.
Fig. 2. El programa crea un camino
de diferentes alternativas y geometrías resultantes. Un proceso que tiene como consecuencia la pérdida del
objeto arquitectónico para liberarlo en
una exploración creativa superior.
287
Parte IV. La génesis de un nuevo paradigma
El parásito
Fig. 3. Una compleja red de aurículas,
capaces de concebir diferenciaciones
espaciales a través de múltiples niveles
de retroalimentación.
Otro de los diseños que utilizan algoritmos genéticos para su creación es “The Parasite”: un proyecto de investigación desarrollado por
Stanislav Roudavski y Jonathan Mackenzie para la Bienal Internacional de Arte Contemporáneo, realizada en la ciudad de Praga durante
el 2005.
El parásito fue desarrollado en el Digital Studio del Departamento de Arquitectura de la Universidad de Cambridge, siendo Georgios Artopoulos,
el corresponsable de la imagen, en tanto que los modelos computacionales de la morfogénesis en las plantas se desarrollaron en el laboratorio
Jim Haselhoff, del Departamento de Ciencias Vegetales de la Universidad
de Cambridge, siendo Jonathan Mackenzie el responsable de la programación del modelo.
288
El Parásito consiste en una estructura física y un sistema audiovisual
interactivo, diseñado para operar en el hueco de la escalera principal del
Museo de Arte Moderno en Praga. Un espacio performativo que “explora
cómo el diseño arquitectónico asistido por computadora, con sus técnicas generativas, de adaptación e invención novedosa, proporciona una
ayuda para la creatividad” (Roudavski, 2009, pp. 345-374)3.
Inspirado en el modelo de John Holland, se trata de un modelo biológico
que considera la adaptación como una modificación progresiva de su
estructura, repitiendo ciertos patrones.
Un proceso que facilita la manipulación de complejas variables a través
de una simulación dinámica que permite desarrollar una relación entre
las interpretaciones de la morfogénesis en la biología y la arquitectura.
Para ello incorpora metodologías celulares semejantes a las que se encuentran en el reino natural, utilizando técnicas de diseño asistido por
computadora.
3. Las consideraciones particulares que se hacen a continuación toman como
referencia las ideas desarrolladas por Roudavski, 2009, pp. 345-374.
Marcelo A. Fraile - Arquitectura biodigital
Inicialmente, el programa genera una serie de puntos sobre la superficie
del objeto, puntos que posteriormente serán utilizados como centros de
las celdas de un sistema de Voronoi. A continuación, esta estructura formará nuevos puntos, posibilitando su crecimiento y adaptación.
Una búsqueda aleatoria que permite obtener soluciones potenciales mediante pequeños cambios graduales dentro de la población a lo largo de
varias generaciones. Un proceso híbrido de varias fases que posibilita al
diseñador calcular el rendimiento de los resultados y, a partir de esto, seleccionar la solución intermedia para utilizar en la etapa siguiente y recha-
Fig. 4. El Parásito consiste en una es-
zar el resto.
sual interactivo, diseñado para operar
Un procedimiento que posibilita ajustar y analizar alternativas estable-
del Museo de Arte Moderno en Praga.
tructura física y un sistema audiovien el hueco de la escalera principal
ciendo variaciones particulares. De acuerdo con los criterios formulados
previamente, el diseñador elige una solución de las múltiples y posibles
soluciones.
Su conformación visual se parece a patrones complejos producidos por
organismos biológicos. Para esto, el guion normalizó la matriz de valores
de curvatura para adaptarse a un rango entre 0 y 100 y luego mostrar
esto a través de un gráfico.
Para su construcción, el caparazón fue dividido en una serie de partes
que pudieran ser transportadas y posteriormente reensambladas en el
hueco de la escalera.
El objeto posee una pared celular de ancho constante. Las áreas planas
fueron desarrolladas usando cuerpos vacíos basados en partículas, en
tanto que las paredes exteriores se desarrollaron con curvas, con obvias
diferencias de ancho en la parte superior del armazón.
Mediante este sistema, fue posible utilizar la biología como un método de
crecimiento flexible y dinámico. Un proyecto generado de manera híbrida
(biológica-digital) que busca producir estructuras arquitectónicas complejas.
Fig. 5. Inicialmente, el programa genera una serie de puntos sobre la superficie del objeto, puntos que posteriormente serán utilizados como centros
de las celdas de un sistema de Voronoi. A continuación, esta estructura
formará nuevos puntos, permitiendo
su crecimiento y adaptación.
289
Parte IV. La génesis de un nuevo paradigma
Fig. 6. Su conformación visual se parece a patrones complejos producidos
por organismos biológicos.
En otras palabras, lo que estamos desarrollando son las reglas capaces
de generar la forma, en lugar de crear la forma propiamente dicha. Estamos definiendo procesos, no componentes; los ladrillos son reemplazados por semillas (Frazer, 1995).
El proceso comienza con la selección de las semillas “padres” para la fecundación, a continuación se produce un cruce genético, un intercambio
entre dos semillas que se desarrollará de acuerdo con las reglas codificadas en el guion genético: un código de computadora que proporciona
una estructura compleja donde los resultados del proceso son mutados
a través de una interacción de elementos. Para esto, el programa requiere de dos tipos de información: por un lado, la necesaria para desarrollar
un modelo conceptual de información; y por el otro, aquella real, utilizada
para las etapas de salida.
Para concluir, las células individuales asumen funciones especializadas,
un proceso de crecimiento adaptativo que genera dos superficies irregulares, a modo de pieles celulares, las cuales son materializadas a través
de una herramienta de producción CNC.
290
Fig. 7. Para su construcción, el caparazón fue dividido en una serie de partes que pudieran ser transportadas y
posteriormente reensambladas en el
hueco de la escalera.
Un modelo homogéneo de superficies y curvas dinámicas. Una “célula
material” ideal, desarrollada para generar una forma escultórica bajo patrones complejos producidos mediante fenómenos naturales: las células
que forman las paredes del parásito están ensambladas como las células en una planta.
Un proceso innovador centrado en el diseño asistido por computadora que permite la construcción de lugares de manera dinámica. Una
ayuda a la creatividad bajo un enfoque que se centra en lo transformable y que da prioridad a lo constructivo, sin una mirada hacia el
pasado romántico que entiende los lugares de una manera excluyente
y esencialista haciendo hincapié en las tradiciones y desconfiando de
la tecnología.
Marcelo A. Fraile - Arquitectura biodigital
Sin embargo, el parásito no poseía posibilidades automatizadas de creci-
Fig. 8. El proceso comienza con la se-
miento y adaptación: a diferencia de la biología, el modelo requería de la
lección de las semillas “padres” para la
intervención del diseñador para aprobar o rechazar cada resultado parcial.
fecundación, a continuación se produ-
El parásito representa un modelo de creatividad arquitectónica que se
entre dos semillas que se desarrollará
aparta de los modelos tradicionales, sin embargo, sus resultados todavía se apoya en las habilidades humanas para formalizar los conceptos
de acuerdo con las reglas codificadas
ce un cruce genético, un intercambio
en el guion genético.
de evaluación y evolución.
Durante el proceso, el diseñador tiende a confiar en su intuición, modificando las formas hasta que la obra “funciona”, un sistema que depende
de la idoneidad del diseñador. Técnica que puede reducir la eficacia en
la solución del problema desarrollado.
La casa embriológica
291
Greg Lynn
Discípulo de Peter Eisenman y usuario apasionado de las computadoras, el arquitecto norteamericano Greg Lynn (1964) desarrolló una combinación entre los conceptos filosóficos y biológicos, abandonando el
espacio euclídeo para encontrar inspiración en la geometría topológica.
Con sus proyectos ha generado toda una serie de nuevas tipologías
inspiradas en formas orgánicas y metáforas digitales.
Utilizando tecnología digital de última generación, ha producido un nuevo lenguaje en el modo de hacer arquitectura, caracterizado por estructuras dinámicas, plásticas y mutables, capaces de transformarse constantemente, hasta su concreción física final.
Desde este punto de vista, el rol del arquitecto y sus métodos de trabajo
han cambiado. Sin embargo, esto no significa que su papel haya disminuido, por el contrario, sus funciones se han visto extendidas hacia lo
Parte IV. La génesis de un nuevo paradigma
que Frazer denomina “extended architect”: un proceso donde los arquitectos pueden diseñar y supervisar muchas generaciones de diseños,
expresadas en términos de códigos genéticos. Siendo el procesamiento
y el montaje real externo al modelo.
Un proceso donde:
“La materia se une formando órganos, los órganos se reúnen para
formar cuerpos, los cuerpos empiezan a articular gestos en respuesta a una constelación de fuerzas resultantes de distintas iteraciones
a través de escalas moleculares, celulares, orgánicas y corporales”
(Lynn, 2002, p. 96).
La reinterpretación del concepto de casa
Entre 1998 y el 2001, Lynn desarrolló lo que se conoce como Embryological House4: un proyecto contemporáneo que marcaría un punto de
intersección significativo en la arquitectura con los discursos especializados de la biología.
El término Embryological House fue tomado prestado por Lynn del campo de la biología, y su significado hace alusión al comportamiento de las
“células” generadoras del proyecto, las cuales, al combinarse entre sí
son capaces de producir infinitas cantidades de formas.
Para ello, Lynn planteó inicialmente tres objetivos:
-
Replantear el concepto moderno de la casa como ‘kit de partes’,
donde usted puede quitar o agregar cosas y transformarlo en un
ser bioinspirado, una célula única, orgánica. Un prototipo genético/genérico a partir del cual se puede crear un número infinito
de interacciones.
-
Ampliar la interacción entre “genérica” y “variación” implícita
en este replanteo de las nociones de branding y de la satisfacción del consumidor mediante una específica y única versión
del producto.
-
Impulsar las capacidades de las tecnologías de fabricación automatizadas existentes para la producción de formas arquitectónicas no estándar (Velázquez, 2008).
292
Fig. 9. Casa embriológica. Utilizando
tecnología digital de última generación, ha producido un nuevo lenguaje en el modo de hacer arquitectura,
caracterizado por estructuras dinámicas, plásticas y mutables, capaces de
transformarse constantemente, hasta
su concreción física final.
Desde este punto de vista, para Lynn, la casa embriológica es el futuro de la
vivienda, y su producción en serie se conecta: por un lado, con la tradición; y
por el otro, con un nuevo escenario contemporáneo donde avanzados materiales, preocupaciones medioambientales y manufactura digital le otorgan un
nuevo matiz a este concepto (Dollens & Planella, 2002, p. 100).
4. La casa embriológica fue patrocinada por el Foro Internacional de Diseño de
Ulm, Alemania; el Centro para las Artes Wexner, de Columbus, Ohio; la UCLA
de Arquitectura de Los Ángeles; y la ETH (Instituto Federal Suizo de Tecnología)
Zurich. El modelo en escala fue producido mediante tecnología CNC y donado
por CNC DINAMIX AG. Bern, Suiza.
Posteriormente, a pedido de Massimiliano Fuksas, fue presentada en la séptima
Bienal de Arquitectura de Venecia del año 2000.
Marcelo A. Fraile - Arquitectura biodigital
La casa embriológica intenta incorporarse en un mercado como el de Estados Unidos, donde más del 40 %
de las viviendas son prefabricadas. En el proyecto de Lynn, una familia podría elegir entre diversos diseños de
viviendas, escogiendo el número de habitaciones y baños, el tipo de cocina y su disposición, así como también
la cantidad de plantas y los acabados internos (Dollens & Planella, 2002, p. 100).
Para el proyecto de la casa embriológica, Lynn utilizaría el concepto de morfogénesis elaborado por Alan
Turing en 19525. Un modelo matemático que definía el desarrollo de las formas en la naturaleza bajo una
concepción biológico-química: dos tipos de proteínas, denominadas morfógenos, que se difunden e interactúan entre sí a través de un tejido celular del mismo linaje. Un proceso que hace evolucionar a la forma
a través de ecuaciones de reacción-difusión no lineales. Un sistema flexible y adaptable en una infinita
cadena de mutaciones.
Una evolución morfogenética donde formas, estructuras y composiciones químicas no son comprendidas como
entidades autónomas sino, por el contrario, estas presentan propiedades emergentes: es decir, despliegan una
interacción dinámica de retroalimentación con las fuerzas extrínsecas del contexto.
El proceso comienza con un esquema preliminar, una forma simple denominada huevo o semilla: una célula
básica o genotipo digital de forma esférica, con 12 puntos o parámetros de control. La interacción de estos
puntos establecidos entre límites máximos y mínimos proporcionará las infinitas posibilidades de mutación de
la semilla (Dery, 2008).
Un sistema de evolución biológico-digital, con reglas previamente definidas, que permite dar vida a nuevas formas y perturba la simetría en los procesos de desarrollo. Una emulación digital del ADN para generar formas
únicas, maleables y transformables.
De acuerdo con el modelo matemático utilizado, una vez introducidos los parámetros iniciales, la célula base
comenzará a crecer y evolucionar. El programa desarrollará una serie discreta de elementos, formas animadas, sinuosas o continuas. Un vectorial que transita a través de una doble dirección, “no siempre previstas y,
sobre todo, no necesariamente estables” (Arenas, 2010, p. 40).
Un proceso digital de mutaciones en etapas que ofrece un modelado de “autogénesis” en el que el diseñador
irá evaluando sus efectos en diferentes escenarios que lo conducirán hacia resultados inesperados. Una transmisión dígito-genética de la información, un proceso espacial, que borra los límites disciplinares buscando
“Soluciones de diseño ecológicamente eficientes” (Roudavski, 2009, pp. 345-374).
Un proceso algorítmico que permite llevar a cabo un diseño no jerárquico ni lineal, que se retroalimenta a 293
través de múltiples factores, sean estos exógenos o endógenos, y con la suficiente capacidad para autoorganizarse: “…una manipulación algorítmica de una estructura interna compuesta por elementos definidos de forma
paramétrica” (Krauel, 2010, p. 120).
Un comportamiento que considera las fuerzas exteriores como variables, dentro de un sistema paramétrico
abierto. De este modo, el “…espacio pasivo de coordenadas estáticas [es reemplazado por] un espacio activo
de interacciones” (Kolarevic, 2003b, pp. 17-45).
“Al comienzo pueden asemejarse a huevos, …pero cuando estas cosas se vuelven adultas, es decir después
de haber sido diseñadas y caracterizadas en función del contexto, del cliente, los caprichos del arquitecto…
mutan en verdaderos y absolutos monstruos” (Dery, 2008).
5. Ver capítulo 4.1. El modelo biológico.
Parte IV. La génesis de un nuevo paradigma
Fig. 10. La Casa embriológica es un
Preconceptos y objetivos
sistema de evolución biológico-digital, con reglas previamente definidas,
Bajo una concepción interdisciplinaria, Lynn se inspira en los trabajos
que permite dar vida a nuevas formas
de dos especialistas que no pertenecen al campo del diseño: William
y perturba la simetría en los procesos
Bateson (1861-1926) y su hijo Gregory Bateson (1904-1980).
de desarrollo. Una emulación digital
del ADN para generar formas únicas,
maleables y transformables.
El primero, William, fue un biólogo inglés que en 1894 escribió un libro
titulado “Materials for the study of variation: treated with special regard to
discontinuity in the origin of species”, en donde planteaba los conceptos
relacionados con la discontinuidad en el origen de las especies: un postulado que cambiaría las teorías que tenía la genética con respecto a la
simetría (ver capitulo El modelo biológico digital).
294
Bateson argumentaba que en el caso de las mutaciones biológicas,
estas presentaban altos niveles de simetría, superiores a lo normal, es
decir, que en lugar de considerar la simetría como el orden, como lo
regular, W. Bateson planteó que esta era consecuencia de la falta de
información, “cuando agregamos información a un sistema, se rompe
la simetría; ante la falta de información, el sistema retorna a la simetría”
(Dery, 2008).
El segundo, su hijo Gregory Bateson, fue un antropólogo, lingüista y
especialista en cibernética que propició –en el campo de las comunicaciones–, una epistemología evolucionista e interdisciplinaria (Valentino,
Giménez, & Miras, 2013).
A partir de estos conceptos, y bajo una perspectiva funcionalista-neodarwinista, Lynn describe el proyecto mediante un lenguaje orgánico,
con metáforas digitales (Migayrou, 2003).
Visualiza la gestación arquitectónica como una evolución biológica que
parte de una forma inicial, semejante a un huevo: una estructura embrionaria de forma regular, esférica y simétrica, consecuencia de su
falta de información. Posteriormente, bajo un proceso morfogenético
de mutación, y con el consiguiente agregado de información al sistema,
Marcelo A. Fraile - Arquitectura biodigital
la forma irá evolucionando – rompiendo su simetría inicial–, hacia una
forma adulta progresivamente compleja. Una ruptura de la simetría inicial a partir de los procesos dinámicos de bifurcación no guiados y de la
Fig. 11. El proceso comienza con un
esquema preliminar, una forma simple denominada huevo o semilla: una
interacción de las fuerzas del entorno.
célula básica o genotipo digital de for-
Desde este punto de vista, se trata de un nuevo enfoque en la materialización y evolución de la vivienda contemporánea. Para Lynn, el proyecto
se convierte en una función parcialmente vacía, un espacio abstracto, producido desde su interior, “…cuyas variables (contextuales, programáticas,
económicas, estéticas, climáticas, etc.) serán las que determinen en cada
tros de control. La interacción de es-
ma esférica, con 12 puntos o parámetos puntos establecidos entre límites
máximos y mínimos proporcionará las
infinitas posibilidades de mutación de
la semilla (Dery, 2008).
caso los elementos de una serie que en principio carece de límites” (Arenas, 2010, p. 40).
Características del proyecto
Para Greg Lynn, el diseño desarrollado en la Embryological House queda definido “…por la presencia simultánea del movimiento y las fuerzas
en el momento de la concepción formal” (Kolarevic, 2003b, pp. 17-45).
Una evolución darwiniana donde los componentes están interconectados, interactuando para producir infinitas mutaciones. Una casa evolutiva, adaptable para una gama completa de sitios y climas, cuyos mínimos requisitos son: contar con un área de 30,5 metros de diámetro y
una pendiente menor de 30 grados.
La casa embriológica tiene dos pisos: el superior puede oscilar de los 56
a los 112 metros cuadrados; en tanto que el inferior o planta baja, de los
112 a los 186 metros cuadrados. Se pasa de un nivel a otro a través de
rampas o escaleras.
Dada su configuración, la casa parece estar enterrada en algunas partes6,
mientras que en otras parece flotar. En la parte exterior hundida, se gene6. Un plano semienterrado de aproximadamente la mitad de su altura. Cuando la
casa se asienta en el suelo, su volumen desplaza la tierra hacia arriba, rodeándola, lo que genera una conformación similar a la de un nido.
295
Parte IV. La génesis de un nuevo paradigma
ran “grietas verdes, de las cuales surge un jardín formal. Estas grietas…
están rodeadas por un perímetro de jardines sinuosos que concluyen en
un paisaje ondulado de césped” (Dery, 2008). Estos jardines fueron diseñados por el arquitecto y teórico norteamericano Jeff Kipnis (1951).
El interior de la casa se asemeja al de una máquina, un automóvil. Sus
paredes curvas crean bolsas o espacios llamadas “burbujas”. Volúmenes en formas de ampollas tridimensionales que se inclinan, sobresalen
Fig. 12. Lynn visualiza la gestación arquitectónica como una evolución biológica. Un nuevo enfoque en la materialización y evolución de la vivienda
contemporánea.
o generan cavidades para crear muebles, lugares de almacenamiento,
armarios, mesas, sillas, bañeras, etc., y en cuyo interior se pueden empotrar electrodomésticos, mobiliarios y equipos (Dery, 2008).
Los pisos de la casa son superficies revestidas con diversos materiales
(alfombras, maderas, cueros artificiales, acero inoxidable, goma, cerámicos y plásticos), que contienen las tecnologías y las canalizaciones.
En los trabajos de Lynn, el color y la textura ocupan un lugar importante.
Múltiples componentes se combinan en una gama de colores brillantes,
que podían ser mezclados para acentuar las suaves curvaturas de la
superficie de la casa fabricada mediante herramientas CNC (Lynn, 2008).
Lynn desarrolló seis prototipos de viviendas, denominadas Houses,
acompañadas por las letras A, B, C, D, E o F. En cada una de estas
viviendas, los espacios fueron diseñados en forma conjunta, desde el
espacio interior hasta el equipamiento de la vivienda.
Para Lynn “…no hay una casa embriológica ideal u original, solo un esquema de sus límites y variaciones” (Dollens & Planella, 2002, p. 91).
Fig. 13. Bajo un proceso morfogenético de mutación, y con el consiguiente
agregado de información al sistema,
la forma irá evolucionando – rompiendo su simetría inicial–, hacia una for-
296 ma adulta progresivamente compleja.
La conformación material del espacio
La casa embriológica es un nuevo concepto de hogar biológico hecho a
medida y manufacturado de manera industrial. Un producto híbrido nacido de una simulación por computadora de temas morfogenéticos, pero
que en su materialización busca imitar la dinámica de los autos.
La casa está compuesta por una cáscara delgada o doble piel: la primera, de aluminio y vidrio, es la encargada de definir su forma; y la
segunda, una piel de oscurecimiento, se relaciona con el sistema de
aventanamiento.
Para el desarrollo de ambas pieles, Lynn tomó los datos de energía solar
del entorno y los introdujo en la computadora, con el fin de modelar el
rendimiento solar del edificio durante todo el año. Una simulación que
permitió calcular la incidencia de la luz y las sombras sobre la forma proyectada (Dery, 2008). A partir de los datos obtenidos, Lynn desarrollaría
una serie de ondulaciones y depresiones sobre la doble piel de la casa.
Una serie de aletas delgadas orientadas en dirección al sol, en función
de las coordenadas geográficas donde se ubicará el edificio.
Una piel compuesta que se distorsiona debido a las fuerzas producidas
por la naturaleza: la forma arquitectónica no solo es la manifestación de
Marcelo A. Fraile - Arquitectura biodigital
su lógica interna, sino también es una respuesta a las influencias dinámicas procedentes de su contexto.
Buscando evitar perforaciones para las ventanas, se desarrollaron una
serie de aberturas finas en la piel exterior, en forma de tiras. Dependiendo de las cercanías entre las tiras, el resultado varía desde algo parecido
a una ventana, hacia algo semejante a una pared de vidrio, o pantalla.
Se trata de una reinterpretación de la abertura, entendida esta como
“un pasaje visible de un lado a otro”. Una superficie topológica definida
a partir de una red de curvas en donde se ubicarán las ventanas. Para
ello, Lynn define tres posibles caminos: cortes booleanos, a partir de
múltiples figuras o superficies; desplazamiento de spline, usando isotermas curvas; y mediante el doblado de facetados en la superficie en dos
direcciones U y V.
La luz ingresa al interior a través de estas rajas y a través de la pérgola
que conforma el sistema de oscurecimiento y genera una percepción
que parece “acuosa”, en tanto que la puerta de acceso parece un esfínter
que, como el iris de un ojo, se abre y se cierra. Un sistema de contrapesos que requiere vencer la inercia del peso de la puerta (Dery, 2008).
Fig. 14. La casa parece estar enterrada en algunas partes, mientras que en
El proceso de diseño digital y su fabricación robotizada
A partir de la modificación de un programa originalmente pensado para
la industria aeroespacial, Lynn desarrollaría una plataforma de diseño
digital denominada “Blobby”7. Una herramienta de modelado topológico,
vinculada con sistemas de animación capaces de controlar y representar formas geométricas fluidas mediante la introducción de una serie de
parámetros iniciales.
Una arquitectura definida matemáticamente, a través de curvas y superficies NURBS (Non-Uniform Rational B Spline), representadas computacionalmente a través de códigos binarios.
otras parece flotar. En la parte exterior
hundida, se generan “grietas verdes”,
de las cuales surge un jardín formal.
Fig. 15. El interior de la casa se asemeja al de una máquina, un automóvil. Sus paredes curvas crean bolsas
o espacios llamadas “burbujas”, que se
inclinan, sobresalen o generan cavidades para crear muebles, lugares de
almacenamiento, armarios, etcétera.
297
Un sistema que recuerda los procesos de modelado desarrollados por
Antoni Gaudí –de formas manipuladas a través de puntos de control,
pesos y nudos–, pero que ahora, a través de las computadoras, el diseñador puede crear nuevas formas de superficies continuas.
Es lo que el arquitecto neerlandés Lars Spuybroek llama “cuadrícula líquida” (wet grid). Un sistema de modelado desarrollado a través de una
malla flexible, cuyos “movimientos se incorporan a la estructura, para
formar una red topológica que interactúa con el entorno, reajustándose
continuamente”.
7. La utilización de softwares llamados Blobby va a dar lugar a la generación de
un tipo de arquitectura conocida como “Arquitectura BLOB”, o “Bloblitecture”, una
expresión biomorfa que fue acuñada en 1995.
Wes Jones acuñó el término “Blobmeisters” para definir a un grupo de diseñadores que habían comenzado a explorar estos softwares como un punto de
partida para la generación de nuevas formas en la arquitectura (otros términos
semejantes son CAAD Designers, Napster generation, etc.). En Lynn, G. (2000),
“Embriological House, AD. Contemporary Processes in Architecture, Vol. 70,
n.°3, junio. pp. 26 y ss.
Parte IV. La génesis de un nuevo paradigma
Un procedimiento digital inspirado en los análisis gráficos desarrollados
por D’arcy Thompson y su modelado topológico. Una nueva arquitectura
donde la planta ya no genera el proyecto; los cortes asumen un papel
puramente analítico, las grillas pierden su razón de ser, las variabilidad
infinita se convierte en algo tan factible como la modulación, y lo individual se presenta como una alternativa a la producción en serie (Kolarevic, 2003b, pp. 17-45).
Durante el desarrollo Lynn utilizó el programa Microstation, una plataforma virtual que le permitió modelar la arquitectura como un flujo
dinámico; posteriormente, para dar acabado definitivo al modelo utilizó el programa Maya que le permitió generar superficies blandas,
flexibles y ondulantes.
... Lynn también se valió de modelos físicos. Los prototipos digitales
eran traducidos a un lenguaje de máquina para su posterior materialización, mediante impresoras láser de eje bidimensional. Un proceso
sin etapas intermedias donde no existen oportunidades de malinterpretaciones.
Fig. 16. Para el desarrollo de ambas
pieles, Lynn tomó los datos de energía
solar del entorno y los introdujo en la
computadora, con el fin de modelar el
rendimiento solar del edificio durante
todo el año. Una simulación que permitió calcular la incidencia de la luz y
las sombras sobre la forma proyectada (Dery, 2008).
298
Desde esta concepción, la casa embriológica es una estructura compleja,
proveniente de la industria aeronáutica y automovilística, materializada a
través de la combinación de un número constante de componentes y operaciones de montaje: 2048 paneles, únicos en forma y tamaño, realizados
mediante tecnología CNC8, 9 marcos de acero, 72 costillas de aluminio y
armazones en forma de red, que generan diferentes versiones de casas.
Los cambios de tamaño y forma de la casa se consiguen sin añadir o
restar elementos. Una fabricación a través de infinitas posibles mutaciones y personalizaciones.
Hemos pasado de una arquitectura de módulos fraccionarios a una arquitectura digital, de subdivisión infinitesimal. Un cambio en la estética de las proporciones: reemplazando un módulo abstracto de partes
por uno numérico binario capaz de ser calculado y diseñado. Una producción mecanizada con precisión milimétrica que toma el robot como
expresión de su momento, esperando incorporarlo también durante el
proceso de montaje para dar como resultado estructuras capaces de
autoconstruirse.
Las críticas a la casa embriológica
Con un profundo sentido crítico, para el arquitecto americano Benjamin
H. Bratton (1968), la casa embriológica no deja en claro si: “…ya es una
arquitectura genética o, más bien, todavía, una arquitectura sobre la
genética” (2002). En su esencia, asegura Bratton, sigue teniendo en
cuenta ciertos problemas de la arquitectura tradicional, lo que la lleva
a presentar una serie de incongruencias. En primer lugar, durante el
proceso de evolución de la casa, Lynn no desarrolla un proceso de
reproducción sexual (cruce de generaciones), limitándose a realizar
8. Lynn había comenzado a trabajar con las máquinas de CNC primero en la
Universidad de Columbia y posteriormente en la UCLA.
Marcelo A. Fraile - Arquitectura biodigital
solamente una mutación de genes, lo cual reduce potencialmente el
número de variaciones genéticas de las formas biológicas; en segundo
Fig. 17. Desde esta concepción, la
lugar, pese a estar inspirado en lo biológico, su modelo parenteral es
drásticamente reducido. En la naturaleza, la evolución requiere de una
compleja, proveniente de la industria
población mínima para comenzar, múltiples sujetos (la idea de pareja
inicial no existe), reducido ese número, la especie comienza a degenerar y desaparecer; finalmente, en tercer lugar, existe una compleja interferencia originada entre los sistemas biológicos y los sistemas digitales
casa embriológica es una estructura
aeronáutica y automovilística, materializada a través de la combinación
de un número constante de componentes y operaciones de montaje.
para producir una casa que semeja un animal, tanto en su estructura
como en su comportamiento.
De cualquier forma, el planteo elaborado por Lynn en la casa embriológica ha alterado el concepto epistemológico de belleza en la arquitectura: una nueva belleza, ahora digital, que emerge mediante un nuevo
lenguaje orgánico. Una complejidad matemática sin límites donde a
través de un lenguaje biomimético se produce una integración entre lo
micro y lo macro.
Una belleza que, para algunos, como el crítico estadounidense Herbert
Muschamp (1947-2007), corresponde con lo feo, lo grotesco, lo monstruoso, en tanto que para otros, como el diseñador turco-chipriota Hussein Chalayan (1970), se trata de una belleza artística y creativa, rasgos
de un diseño eficiente.
Lo cierto es que, a través de la utilización de sistemas digitales en la
elaboración del proyecto, Lynn ha cambiado la forma de pensar y de
diseñar los espacios arquitectónicos en la contemporaneidad.
La casa embriológica plantea un nuevo estilo de vida: es como un animal, y el hombre su anfitrión que vive dentro de esta. En la memoria del
proyecto, Greg Lynn concluye:
“A las 4:15 AM, inspiró. Se despertó con una tenue y candente luz azul
que parpadeaba en su garganta y una sensación general de indiges-
299
Parte IV. La génesis de un nuevo paradigma
Fig. 18. Una arquitectura digital, de sub-
tión. Descansaba de manera irregular, como si hubiera comido algo
división infinitesimal. Un cambio en la
malo la noche anterior, con la sensación persistente de que un animal
estética de las proporciones: reempla-
agitado estaba viviendo en su intestino. La irritación que un sonido
zando un módulo abstracto de partes
sordo y agotador le producía en su interior continuó, hasta que fue
por uno numérico binario capaz de ser
obvio que el día comenzaría en la oscuridad. Su superficie comenzó
calculado y diseñado.
a brillar como si impulsos eléctricos cruzaran su piel. El agua caliente
comenzó a correr por los tubos capilares debajo de su superficie, y
las paredes de su cuerpo comenzaron a irradiar calor. El olor acre
de la preparación del café emanaba de sus poros, como si su piel
comenzara a expulsar el hedor de la noche anterior. Su piel iridiscente brilló como el rocío de la mañana sobre sus curvas metálicas.
Pasarían varias horas antes de que el sol saliese y penetrase en su
piel escamosa de protección para las primeras horas del día. Hasta
entonces, rechinando con los sonidos del sistema de digestión que
se despertaba, temblaría y cantaría en su nido de barro, calentado y
activado desde su interior”(Valentino, Giménez, & Miras, 2014, p. 102).
300
La herencia de la casa embriológica
Con la incorporación de avanzados sistemas tecnológicos, durante la
última década del siglo XX, se ha producido un profundo desarrollo de
una nueva generación de modelos digitales, inspirados en los procesos
de selección natural de los organismos vivos. Una exploración biológica-proyectual donde el diseñador experimenta con una evolución de la
arquitectura, explicada a través del origen y de la transformación de los
seres vivos.
Una analogía directa con el código de ADN donde cada aminoácido es
representado de una manera simplificada a través de una secuencia de
números binarios, esto genera lo que se conoce como ADN digital: un
modelo abstracto que codifica la estructura del sistema en términos biológicos-arquitectónicos, siendo capaz de reproducirse, cruzarse y mutar.
Una equivalencia con los genotipos que producen una reacción fenotípica (es decir la manifestación formal) en la interacción con un ambiente
Marcelo A. Fraile - Arquitectura biodigital
en particular. Desde este punto de vista, el ADN digital no describe el fenotipo, sino que fabrica las instrucciones que describen el proceso de construcción fenotípica. Una búsqueda que va más allá de un modelo, se trata de una búsqueda teórica que codifica genéticamente la forma, bajo parámetros de selección y replicación.
Una arquitectura evolutiva, en relación con el entorno construido. En consecuencia, el concepto de un gen
ideal es inútil, su información genética dependerá del contexto en que se encuentre, siendo sus cromosomas
seleccionados de acuerdo con el rendimiento relacionado con este.
Un desarrollo innovador donde, al igual de lo que sucede en la evolución biológica, este proceso opera sin un
preconocimiento de lo que está por venir: su evolución se produce bajo una “táctica ciega”, es decir, una búsqueda
sin preconcepciones, una técnica capaz de llegar a lugares que ninguna estrategia soñaría llegar (Frazer, 1995).
Sin embargo, para que esto suceda será necesario la ejecución de una serie de comandos e instrucciones, un
código programático que le enseñe a la computadora qué variables deberá procesar y cómo deberá hacerlo.
Un listado de rutinas que determinarán los pasos que deberán seguirse, diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos conectar y cómo llegar a hacerlo.
Su utilización no implica la ausencia o el reemplazo del “diseñador” que en este modelo de proyectación continúa siendo fundamental para la elaboración de los procesos y las tomas de decisiones. Para Manuel de Landa, el diseñador se transforma en un “criador de formas” que mediante cambios genéticos continuos intentará
determinar cuáles son las respuestas mejor adaptadas al entorno.
Para Frazer, se trata de una nueva escala de interacción con el mundo, una reinterpretación de la “escala
humana”, ya que, a partir de la genética, se produce una conexión molecular entre las formas creadas por la
naturaleza y aquellas creadas por el hombre.
Figuras
Fig. 1. a la Fig. 3. Trabecuale. http://www.evolo.us/architecture/trabeculae-re-imagining-the-office-building/
Fig. 4. a la Fig. 8. The parasite. http://perfomativeplaces.expressivespace.org/index.php?/project/the-parasite/
Fig. 9. Casa embriológica. http://article.sapub.org/10.5923.s.arch.201402.01.html
Fig. 10. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html
Fig. 11. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html
http://www.glform.com/embryonic/embryonic.htm
Fig. 12. Casa embriológica. https://embryology.med.unsw.edu.au/embryology/images/thumb/3/37/Human_Carnegie_
stage_10-23.jpg/600px-Human_Carnegie_stage_10-23.jpg
Fig. 13. Casa embriológica. http://www.glform.com/embryonic/embryonic.htm
Fig. 14. Casa embriológica. http://www.glform.com/embryonic/Build%20your%20own/surface1/base1_1_1web.htm
Fig. 15. Casa embriológica. https://ar.pinterest.com/pin/64880050862034206/
Fig. 16. Casa embriológica. http://future-house-genealogy.blogspot.com.ar/p/embryological-house.html
http://archives.docam.ca/en/wp-content/GL/GL6BContents.html
Fig. 17. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html
http://www.cca.qc.ca/en/search/details/collection/object/345792
Fig. 18. Casa embriológica. http://future-house-genealogy.blogspot.com.ar/p/embryological-house.html
301
Parte IV. La génesis de un nuevo paradigma
302
Marcelo A. Fraile - Arquitectura biodigital
ARQUITECTURA BIOMIMÉTICA: EL EMERGENTE CAMINO DEL NUEVO MILENIO
Biomímesis
“La teoría de la evolución explica el origen y la transformación de los seres vivos como producto de la acción
de dos principios fundamentales: la selección natural y las posibilidades de combinación (relaciones)”. (Ballestero, 2008, p. 26).
El término biomímesis es una palabra compuesta por dos vocablos de origen griego: ‘Bios’ que significa vida,
y ‘Mimesis’, imitación (Benyus & Leal, 2012, p. 13).
Inicialmente, el concepto de biomímesis fue caracterizado como una ciencia interdisciplinaria que estudiaba
los procesos que se desarrollaban en la naturaleza, como fuente de inspiración para ser posteriormente aplicados en las tecnologías del hombre. Sin embargo, actualmente esta noción ha sido reemplazada por el difuso
concepto de “resolución de problemas”.
Su origen se encuentra asociado al ingeniero e inventor estadounidense Otto Herbert Schmitt (1913-1998)
quien, a mediados de la década de 1950, como parte de su tesis doctoral, comenzó a investigar los nervios
del calamar, buscando desarrollar un dispositivo ‘activo’ capaz de convertir una señal de entrada analógica en
una señal de salida digital: denominado como “disparador de Schmitt”, se trataba de un dispositivo electrónico
que replicaría el modo en que se propagan los impulsos eléctricos a través de los nervios de un calamar.
Como corolario de esa investigación, en 1969, Schmitt acuñó el término biomímesis en un artículo titulado
“Some Interesting and Useful Biomimetic Transforms”1, que fue presentado en Third International Biophysics
Congress (Tercer Congreso Internacional de Biofísica).
Cinco años después, en 1974, el término biomímesis ya formaba parte del Diccionario estadounidense Webster (An American Dictionary of the English Language).
Biomímesis: “…estudio de la formación, estructura o función de sustancias y materiales producidos biológicamente (como enzimas o seda) y mecanismos y procesos biológicos (como la síntesis de proteínas o la
fotosíntesis) especialmente con el propósito de sintetizar productos similares mediante mecanismos artificiales
que imitan naturales” (Merriam, 2017).
Para la tecnóloga urbanista estadounidense Emil Binet Royall, esta definición describe la biomímesis como “…
303
el estudio de tres propiedades de los materiales y de los mecanismos biológicos: la formación, su estructura
física y su función” (2011, pp. 12-16).
En este sentido, Binet Royall considera que la biomímesis tiene como objetivos generar elementos análogos a
la biología en forma, estructura y funcionamiento, a partir del uso de mecanismos artificiales que también deberán imitar a la naturaleza. En otras palabras, para Binet Royall, no solo deberá copiar su forma y su función,
sino también los procesos por los cuales estos se generan.
Mientras que el zoólogo Julian Vincent, del Centro de Biomimética de la Universidad de Reading, define la biomímesis “…como ‘la abstracción del buen diseño que proviene de la naturaleza’” (Binet Royall, 2011, pp. 12-16).
Por su parte, para la autora y naturalista americana Janine Benyus (1958), la naturaleza ha investigado y
desarrollado sus organismos por más de 3800 millones de años, sus fracasos “…han quedado fosilizados y
lo que nos rodea es el secreto de la supervivencia” (2012, p. 17). En consecuencia, Benyus considera que
1. Schmitt O. (1969) “Some Interesting and Useful Biomimetic Transforms”, Proceeding, Third International Biophysics
Congress, Boston, Mass., Aug. 29-Sept. 3. p. 297.
Parte IV. La génesis de un nuevo paradigma
“…los modelos para el proceso biomimético deben ser tomados directamente del mundo natural, en lugar de
ser diseñados artificialmente por métodos computacionales”.
Sin embargo, no todos comparten este enfoque restrictivo sobre el tema. Para el arquitecto británico Michael
Pawlyn (1967), debemos ir más allá del planteo reduccionista de Janine Benyus, que considera la biomímesis
como materia prima y tratamiento, ese camino solo nos conducirá a lo menos malo, pero nunca hacia un bien
superador.
De manera análoga, el arquitecto británico Philip Steadman plantea la biomímesis “…como el ‘análisis de la
ingeniería de los organismos y su comportamiento con miras a aplicar los mismos principios en el diseño’”
(2011, pp. 12-16): un fenómeno de evolución, entendido como un proceso de optimización y adaptación al
medioambiente.
En una línea de pensamiento similar, para el físico Yoseph Bar-Cohen, el simple acto de imitación es arcaico.
Bar-Cohen considera que “…los avances en la ciencia y la tecnología han llevado a los seres humanos a
‘actuar más allá de la simple mímesis de la naturaleza’, ya que ‘nunca como ahora podemos inspirarnos en la
naturaleza y emplear nuestras herramientas de maneras muy superiores” (2011, pp. 12-16).
Desde este punto de vista, la biomímesis supone la aparición de un enfoque radicalmente nuevo, diferente
del establecido en la Revolución Industrial, una estrategia “… en la que las formas y funciones biológicas se
transponen a los sistemas materiales tradicionales” (Armstrong, 2011, pp. 68-77).
Para el arquitecto estadounidense Dennis Dollens, la biomímesis implica una búsqueda de eficiencia, “…
mira[r] a la naturaleza, …para sacar ideas de diseño de estructuras y ver cómo se pueden traspasar esas
ideas del mundo natural a un proyecto arquitectónico”: no se trata de copiar fielmente el mundo natural, “…no
hacemos edificios que parezcan flores, sino que intentamos hacer un edificio que, por ejemplo, use energía
solar como lo hace la fotosíntesis en las plantas”. Formalmente “No va a parecer una planta, pero sí podemos
decir que funcionará como una planta, tendrá sus principios” (Vidal, 2014, pp. 46-47).
La biomímesis sigue los principios de la vida, mantiene una estabilidad dinámica a partir de nueve propiedades importantes:
-
Utiliza la luz solar;
-
utiliza solamente la energía imprescindible (en el mundo natural la energía es lo más caro);
-
ajusta la forma a la función (la forma es gratis, y el material es caro);
-
lo recicla todo;
-
recompensa la cooperación (una construcción botton-up, de abajo hacia arriba);
-
acumula diversidad;
-
contrarresta los excesos desde el interior;
-
utiliza la fuerza de los límites;
-
aprende de su contexto, utilizando la tecnología local (Benyus & Leal, 2012, p. 22).
304
Actualmente, muchas de las soluciones existentes tienden a mitigar el problema ecoambiental, pero se requiere un cambio de actitud mucho más profundo, y es precisamente allí en donde el concepto de biomímesis
parece plantear una solución alternativa. En este sentido, Pawlyn considera que la humanidad debe producir
tres grandes cambios si pretende continuar en este mundo: el primero de estos es lograr un aumento radical
Marcelo A. Fraile - Arquitectura biodigital
de la eficiencia de los recursos; el segundo, pasar de una economía de combustibles fósiles a una economía solar; y finalmente, transformar su visión derrochadora de los recursos en forma lineal, a un modelo de
circuito cerrado (2011). La biomímesis parece ser el camino más adecuado para obtener los tres.
La biomímesis está reconfigurando las fronteras que dividían lo natural de lo artificial, una vía de investigación
innovadora que pretende estudiar los modos de traducir soluciones biológicas al campo del diseño. Para el arquitecto americano Evan Douglis, la mímesis biológica es el nuevo paradigma para la producción arquitectónica.
Un nuevo proceso “Form-Finding” (encontrando la forma) donde la estética no debe ser entendida como la finalidad, sino más bien como el resultado coherente de un proceso de diseño morfogenético en el que se desarrolla
una metodología propia del diseño emergente (Senosian Aguilar, 1998, p. 13).
Nuevos modelos provenientes del mundo natural que no requieren de combustibles fósiles, no contaminan, ni
consumen los recursos no renovables del medioambiente. Se trata de una versión “…más elegante y menos
costosa para el planeta” (Benyus & Leal, 2012, p. 21).
La biomímesis es un proceso dinámico que ha sufrido una revisión constante en los últimos cincuenta años: una
definición que se ha extendido para incluir ahora también el reino mineral. Su presencia es cada vez más protagonista en el diseño industrial, en la ingeniería y en la fabricación. Sin embargo, en la arquitectura su correcta implementación es reciente y aún muy limitada.
Biónica
En agosto de 1958, el psiquiatra e ingeniero de la Fuerza Aérea Estadounidense Jack E. Steele acuñó el término biónica, término que viene de dos vocablos griegos, ‘bio’ (vida), e ‘ikos’ (unidad, ciencia de), y se refiere a
“…la creación de funciones y formas análogas al comportamiento de los seres vivos. Y esto se logra mediante
observación e investigación profunda, análisis y síntesis” (Senosian Aguilar, 1998, p. 13).
Dos años después, en septiembre de 1960, se desarrolló en la ciudad estadounidense de Dayton (Ohio) la
“I Annual National Aeronautic Electronics Conference” (1ª Conferencia Anual de Electrónica Aeronáutica Nacional), un simposio sobre el tema, en donde se presentaron los trabajos del Mayor Steele: un programa de
investigación denominado “biónica”, emprendido en 1959, en el Centro Whright-Patterson de la U.S. Air Force.
Esta ciencia interdisciplinaria “…no pretende calcar o copiar, [la naturaleza] sino que maneja como tesis que
cualquier modelo tiene una potencialidad para proveer nuevas ideas al diseño de métodos y máquinas que
mejoren la existencia” (Senosian Aguilar, 1998, p. 13).
305
La biónica no solo estudia los aspectos físicos y químicos de la naturaleza, sino también la morfología de sus estructuras con el objeto de aplicarlas a la construcción de máquinas y sistemas artificiales que serán utilizados por el hombre.
Posteriormente, en 1972, el escritor estadounidense Martin Caidin (1927-1997) escribió la novela de ciencia ficción Cyborg, una clara relación con los trabajos de Steele y donde desarrollaba la idea de un hombre-máquina:
tras un accidente un individuo debía reemplazar algunas partes de su cuerpo con fragmentos artificiales los
cuales eran operados electrónicamente. Desde entonces, el término biónico fue asociado con el campo de la
ciencia ficción, y la comunidad científica abandonó su uso.
De acuerdo a su definición, un cíborg es “…una criatura compuesta de elementos orgánicos y dispositivos
mecánicos, generalmente con la intención de mejorar las capacidades de la parte orgánica mediante el uso
de tecnología artificial” (López Fernández, 2009, p. 26).
Conceptualmente, desde un punto de vista estricto, “…una persona a la que se le haya implantado un marcapasos podría considerarse un cíborg, puesto que sería incapaz de sobrevivir sin ese componente mecánico”
(López Fernández, 2009, p. 26).
Parte IV. La génesis de un nuevo paradigma
En este marco, se hace difícil definir qué es realidad y qué ciencia ficción, incluso para algunas publicaciones
científicas como la “New Scientist, Architopia o If” en donde vaticinaba que en el futuro próximo los humanos
y la tecnología se fusionarían hasta límites casi invisibles.
En el campo de la arquitectura, esta línea de pensamiento busca generar un individuo, “un cíborg” que extienda los
límites del hombre hacia fronteras prohibidas por nuestra propia humanidad: una mirada que sirva para reestructurar y potenciar al anfitrión a fin de conducirlo más allá de sus propios límites.
Los tres caminos de la biomímesis
Benyus considera que la biomímesis puede presentar tres roles dentro del diseño: en primer lugar, como modelo, al estudiar la “…naturaleza para imitar o inspirarse en los diseños y procesos biológicos para resolver
problemas humanos”; en segundo lugar, como medida, imitando los procesos naturales “…para juzgar la ‘corrección’ de nuestras innovaciones”; y finalmente como mentora, copiando el funcionamiento de los sistemas,
“…una nueva manera de contemplar y valorar la naturaleza” (2012, p. 13).
La biomímesis como modelo
Una de las figuras más importantes relacionadas con la arquitectura biomimética es el profesor estadounidense Dennis Dollens, cuyos trabajos se encuentran orientados a la búsqueda de soluciones ecológico-ambientales para desarrollar estructuras arquitectónicas vivas o, al menos, dotadas con características biológicas.
Para Dollens, la biomímesis aplicada en el diseño “…implica la búsqueda en los sistemas naturales de las
claves de los procesos naturales y su eficiencia, para poder crear nuevos materiales, productos y entornos
basados en principios biológicos” (Dollens, 2006). Una nueva manera de concebir la arquitectura a partir de
la introducción de propiedades derivadas de la botánica tales como la filotaxis, la alometría y el fototropismo2.
Uno de los proyectos más interesantes al respecto es el Proyecto Arizona Tower, desarrollado por Dollens a
mediados del 2006 en los Laboratorios de Urbanismo del arquitecto italiano Paolo Soleri.
306
Arizona Tower es un experimento digital emergente que utiliza la botánica para diseñar: un uso selectivo de los
principios biológicos para dar respuestas a nuevos desafíos en el diseño. En este sentido, “… la comparación
entre las estructuras arquitectónicas, que son típicamente inmóviles, y las plantas que son también relativamente estáticas parecía menos problemática que con las de… los animales” (Roudavski, 2009, pp. 345-374).
En el proyecto, Dollens establece una analogía con los sistemas biológicos al desarrollar una estructura que,
a modo de árbol, hunde sus raíces en el terreno para lograr un equilibrio estático de sus partes. Estas “raíces”
son utilizadas como cisternas para el almacenamiento, la recolección y la distribución del agua, como sistemas de alcantarillado y como depuración a través de biorreactores.
Para el diseño, Dollens utilizó Xfrog, un programa de simulación digital de las estructuras botánicas. Este
programa tiene la capacidad de producir formas vegetales basadas en los atributos botánicos, a partir de la
información recogida en archivos 3D durante 40 años de investigación. Un programa evolutivo diseñado para
ser utilizado por los paisajistas con el objeto de simular computacionalmente la morfogénesis en los vegetales
(árboles, arbustos o flores). A través de la modificación de los parámetros de crecimiento, es posible alterar “…
la ramificación de los árboles en términos de hibridación digital con el fin de producir formas experimentales
de características botánicas” (2009, pp. 94-103).
2. La filotaxis “se refiere al arreglo o disposición que muestran las hojas en el tallo”; la alometría “se refiere a las tasas de
crecimiento diferencial”; y el fototropismo “es la respuesta de un vegetal a los estímulos luminosos” (Valentino, Giménez, &
Miras, 2013).
Marcelo A. Fraile - Arquitectura biodigital
Un cambio en la concepción de las plataformas digitales, considerando
estas no como herramientas de representación, sino como entes colaboradores en la generación del diseño. Una posibilidad de experimentar
en el espacio “sobre los límites de la inmediatez” (Ruiz Millet & Planella,
2003, p. 130), incorporando en esta las variables de la materialidad.
Una lógica matemática capaz de desarrollar infinitas variaciones a través
de un proceso de replicación. Una adaptación evolutiva que considera la
posibilidad de una transferencia experimental entre biología y arquitectura, por encima de lo meramente analógico o metafórico, priorizando la
eficiencia por sobre las cuestiones culturales.
El concepto de una “serie fija” es reemplazado por una “conducta inteligente”, con capacidad cambiante, para simular la manera en que una
estructura arquitectónica puede crecer para buscar la mejor orientación
solar, las mejores corrientes de aire, la reducción del consumo energético y de agua. De este modo, cada rama del proyecto se encuentra
distribuida de tal forma que maximiza la captación de luz natural a través
de una serie de paneles solares.
Arizona Tower presenta un diseño donde las vainas y los polígonos crecen de escala para transformarse en espacios y se reprograman para
pasar de ser vainas a cubos. El proceso convierte las ramas y raíces
en elementos de diseño. Una distribución “ascendente” de paneles que
posibilita controlar el flujo del aire y la distribución del calor y la sombra
alrededor de la torre cilíndrica.
En su fachada, Dollens ubica una serie de sensores y accionadores integrados en las vainas y las hojas, que permiten controlar las condiciones
ambientales de los locales. Un edificio activo que contribuye a mantener
el aire limpio, a través de una serie de paneles plegables que reproducen la estructura de un árbol, actuando de un modo similar: “…ajustándose, plegándose y reorientándose para reducir la exposición solar
en períodos cálidos y la pérdida de calor en épocas frías […facilitando]
307
Fig. 1. Arizona Tower presenta un diseño donde las vainas y los polígonos
crecen de escala para transformarse
en espacios y se reprograman para
pasar de ser vainas a cubos. El proceso convierte las ramas y raíces en
elementos de diseño.
Parte IV. La génesis de un nuevo paradigma
también el intercambio de aire interior gracias a la ventilación pasiva y la
filtración de agentes tóxicos” (Dollens, 2009, pp. 94-103).
Una nueva arquitectura vegetal que contribuye a retener el carbono, la
fotosíntesis, la recuperación de acuíferos, y proporciona al mismo tiempo nuevos hábitats para las aves y la flora urbana.
Otro modelo interesante es el de Bio-Tower: un proyecto desarrollado
por Dollens en el 2009, para la ciudad de Los Ángeles. Para este diseño, Dollens se centró en el crecimiento de los tallos en flor de la Yucca
glauca cuyas espigas florales desarrollan una pauta asimétrica de crecimiento (filotaxis) que describe una espiral de Fibonacci que asciende
por el tallo. Una forma helicoidal con hojas digitales que permite experimentar estructuras y redes ramificadas, a través de un procedimiento
virtual con características biológicas.
Fig. 2. Dollens establece una analogía
con los sistemas biológicos al desarrollar una estructura que, a modo de
árbol, hunde sus raíces en el terreno
para lograr un equilibrio estático de
sus partes. Estas “raíces” son utilizadas como cisternas para el almacenamiento, la recolección y la distribución
del agua, como sistemas de alcantarillado y como depuración a través de
biorreactores.
308
Marcelo A. Fraile - Arquitectura biodigital
El proyecto quedó conformado por un núcleo circular en torno al cual
ubicó una estructura de ramas “…semejantes a una cesta cilíndrica
tejida, de las que brotan una serie de racimos de hojas en espiral y
sistemas biomecánicos que actúan como membranas-filtro” (Dollens &
Planella, 2002).
En su estructura incorporó una serie de sensores ambientales que permiten realizar operaciones de control climático del edificio tales como
regular la luz solar y la acción del viento. Una tecnología que transforma
la fachada del edificio en una piel híbrida, capaz de reaccionar a las
condiciones del ambiente.
Una alineación de la forma lógica del edificio, con su forma botánica,
desarrollada mediante sistemas digitales para su producción mediante
nuevas tecnologías y nuevos materiales biomiméticos. En este sentido,
Fig. 3. Dollens se centró en el crecimiento de los tallos en flor de la
Yucca glauca cuyas espigas florales
desarrollan una pauta asimétrica de
crecimiento (filotaxis) que describe
una espiral de Fibonacci que asciende por el tallo.
la idea no es copiar el mundo natural, sino que expresa la aparición de
nuevos sistemas que funcionan como la naturaleza.
La biomímesis como medida
Para Julian Vincent, en el mundo natural, la producción de materiales es
extremadamente costosa, en tanto que la variabilidad de la forma resulta
económica; un fuerte contraste con la tecnología material del hombre, donde
pasa todo lo contrario. En este sentido, la naturaleza es muy cuidadosa en el
uso económico de los materiales, “…esto se logra normalmente a través del
ingenio evolucionado de la forma. Mediante el plegamiento, la bóveda, las
costillas, la inflación y otras medidas, los organismos naturales han creado
formas eficaces que demuestran asombrosa eficiencia” (Pawlyn, 2011).
Esta no es la única diferencia que separa el mundo material del mundo
natural. Por ejemplo, los materiales tradicionales de construcción son
inertes y con el tiempo se degradan, en tanto que en el caso de los
materiales biológicos presentan una mirada revolucionaria del tema: son
Fig. 4. Una forma helicoidal con hojas
digitales que permite experimentar estructuras y redes ramificadas, a través
de un procedimiento virtual con características biológicas.
309
Parte IV. La génesis de un nuevo paradigma
Fig. 5. El proyecto quedó conformado por un núcleo circular en torno al
cual ubicó una estructura de ramas
“…semejantes a una cesta cilíndrica
tejida, de las que brotan una serie de
racimos de hojas en espiral y sistemas biomecánicos que actúan como
membranas-filtro” (Dollens & Planella, 2002).
310
capaces de repararse, logran un aumento de la eficiencia desde el rendimiento térmico, acústico e incluso energético.
Un uso de estructuras radicales y eficientes, superiores a cualquiera
desarrollada por el hombre: un proceso en constante evolución donde
los sistemas poco eficaces desaparecen para dar lugar al perfeccionamiento de los que mejor se adaptan a las condiciones del medio natural.
Esto se debe a que la presión en la supervivencia obliga a ser eficientes,
económicos y evitar errores.
En la naturaleza, solo existen cuatro polímeros fibrosos: “…la celulosa en las
plantas, el colágeno en los animales, la quitina en los insectos y crustáceos,
y las sedas en las telarañas” (Hensel, Menges, & Weinstock, 2010, p. 9 y ss.).
La quitina es el segundo biopolímero más abundante en el planeta y
una de las estructuras más resistentes de la naturaleza. Cerca de 100
Marcelo A. Fraile - Arquitectura biodigital
millones de toneladas se producen cada año por organismos como camarones, cangrejos, escorpiones y mariposas.
Fig. 6. Una nueva arquitectura vege-
La arquitecta americana-israelí Neri Oxman (1976) se encuentra desa-
de acuíferos, y proporciona al mismo
rrollando una investigación acerca de nuevos materiales, a través de
lo que ella denomina “Ecología de Materiales”; una exploración basada
en la intersección de tres ejes: la fabricación digital, las ciencias de los
materiales y la biología sintética.
tiempo nuevos hábitats para las aves
tal que contribuye a retener el carbono, la fotosíntesis, la recuperación
y la flora urbana.
Un diseño integral desde la micro a la macro escala que conduce a la
utilización de formas, texturas y materiales biológicos, en un intento por
ampliar la relación entre lo natural y lo construido mediante la utilización
de principios inspirados en la naturaleza.
Para ello, en el año 2014, el equipo de Oxman desarrolló Water-base Digital Fabrication Platform: un proyecto para la fabricación aditiva robótica
de estructuras leves a través de materiales heterogéneos y biodegradables (Oxman, 2014).
Inspirado en la formación de materiales acuosos, Water-base ofrece una
nueva perspectiva en la fabricación digital: una combinación de agua y
materiales derivados de los crustáceos. Para esto, el equipo de Oxman
molió cáscaras de camarones y produjo una pasta de quitosano, un material que de acuerdo a su composición puede adquirir diferentes constituciones: oscuros, duros, opacos, suaves o transparentes.
A continuación, construyeron un sistema de boquillas de extrusión de múltiples cámaras, controladas mediante un brazo robot que imprimiría utilizando
la pasta acuosa de quitosano. El robot podía cambiar las propiedades del
material a medida que imprimía y crear diferentes estructuras hechas de
un solo material. Un material de gran resistencia que seca y endurece a la
temperatura ambiente y se biodegrada en contacto con el agua.
Durante el proceso, pequeñas burbujas de aire que quedaban prisioneras permitían el alojamiento de bacterias genéticamente modificadas
311
Parte IV. La génesis de un nuevo paradigma
Fig. 8. El equipo de Oxman molió cáscaras de camarones y produjo una
pasta de quitosano, un material que
de acuerdo a su composición puede
adquirir diferentes constituciones: oscuros, duros, opacos, suaves o transparentes.
Fig. 7. Un sistema de boquillas de extrusión de múltiples cámaras, controladas mediante un brazo robot que
imprimiría utilizando la pasta acuosa
de quitosano.
312
para que capturaran el carbono de la atmosfera y lo convirtieran en azúcar. Generaban de este modo una estructura biodegradable que se comportaba como un árbol.
Un año después, el equipo de Oxman elaboró el Ocean Pavilion o Pabellón del Océano: una instalación desarrollada para la producción de
estructuras a escala arquitectónica.
Sobre la base de una pasta de “quitosano”, un polisacárido derivado de
la quitina, se fabricaron una serie de hojas de gran escala que imitaban
la geometría de las alas de una libélula. Una estructura ligera que aumenta su resistencia al desarrollar a lo largo de su eje una especie de
nervios estructurales, obtenidos al modular la rigidez, presión y estratificación del compuesto.
Un tercer ejemplo es el Silk Pavilion, diseñado en 2013 por Neri Oxman
y un grupo de investigadores del Media Lab MIT, con la colaboración
del profesor Fiorenzo Omenetto (Tufts University) y el Dr. James Weaver
(Instituto Wyss, Universidad de Harvard).
Marcelo A. Fraile - Arquitectura biodigital
Fig. 9. Durante el proceso, pequeñas
burbujas de aire que quedaban prisioneras permitían el alojamiento de
bacterias genéticamente modificadas
para que capturaran el carbono de la
atmosfera y lo convirtieran en azúcar.
Generaban de este modo una estructura biodegradable que se comportaba como un árbol.
Fig. 10. El Ocean Pavilion es una instalación desarrollada a base de pasta
de quitosano para la producción de
estructuras a escala arquitectónica.
El Silk Pavilion o Pabellón de seda es una instalación cuyas características principales son: su forma, y el modo en que fue fabricado. Un
proyecto destinado a explorar los procesos naturales de construcción y
su posible utilización en el campo de la arquitectura.
Con el fin de investigar estos procesos, Oxman y su equipo encerraron
a un gusano dentro de una cápsula provista de una serie de sensores
magnéticos. El gusano poseía un imán adherido a su cabeza el cual era
detectado por los instrumentos que almacenaban su recorrido en forma
de una nube de puntos espaciales (en tres dimensiones).
A continuación, esa información fue procesada y estudiada con el objeto
de determinar el movimiento del gusano en el espacio y el modo en que
desarrollaba la estructura del capullo3. Después, el equipo de Oxman colocó
3. El gusano comienza a hilar su capullo mediante la combinación de dos proteí-
313
Parte IV. La génesis de un nuevo paradigma
Fig. 11. Sobre la base de una pasta de
“quitosano”, se fabricaron una serie de
hojas de gran escala que imitaban la
geometría de las alas de una libélula. Una estructura ligera que aumenta
su resistencia al desarrollar a lo largo
de su eje una especie de nervios estructurales, obtenidos al modular la
rigidez, presión y estratificación del
compuesto.
314
Marcelo A. Fraile - Arquitectura biodigital
el gusano sobre un soporte plano, donde este continuó desarrollando su
estructura en relación con el ambiente, pero ahora su capullo era plano: una
estricta relación entre la estructura del capullo y el soporte (Oxman, 2015).
En la etapa siguiente de la investigación, Oxman y un equipo del MIT Media Lab llevaron el proceso a una escala arquitectónica. La información
obtenida se transformó en una densa red que reproducía digitalmente la
malla física creada por el gusano: una visualización virtual compleja de
la forma del capullo del gusano de seda.
Posteriormente, un brazo robótico fue programado para imitar el modo
en que el gusano depositaba la seda para construir sus capullos 3D de
un solo hilo. Una impresora digital literalmente “tejió” –utilizando una fibra
de nilón de 1Km de largo, sobre un marco metálico poligonal plano–, una
estructura que proporcionaba diversos grados de densidad de acuerdo
a un algoritmo que evaluaba las condiciones atmosféricas de la zona.
El algoritmo asignaba la ubicación, el tamaño y la densidad de las aberturas de acuerdo al movimiento del sol, con el fin de bloquear los rayos
de luz natural que entrarían al pabellón desde la elevación sur y este.
De igual modo, se ubicó un óculo excéntrico en contra de la elevación del
este, con el fin de ser utilizado como un reloj solar. El resultado fue una
cúpula simplificada en 26 paneles poligonales de 3,66 m de diámetro.
Finalmente, un enjambre de 6500 gusanos de seda fueron alimentados
durante cuatro semanas y posteriormente liberados en la base de la
semiesfera para que tejieran sus estructuras sobre los hilos de nylon.
La estructura fue suspendida en una habitación abierta pero cálida. Los
gusanos tejían sus fibras más densas en las zonas más oscuras y menos densas en aquellas más iluminadas. Esto obligó a que los expertos
giraran el domo, con el fin de obtener una estructura más homogénea.
nas en diferentes concentraciones: una actúa como estructura mientras que la
otra se comporta como pegamento, uniendo las fibras entre sí.
315
Fig. 12. Un proyecto destinado a explorar los procesos naturales de construcción y su posible utilización en el
campo de la arquitectura.
Parte IV. La génesis de un nuevo paradigma
Fig. 13. Oxman y su equipo encerraron a un gusano dentro de una cápsu-
De este modo, la técnica era afectada por las condiciones espaciales y
ambientales, incluyendo la densidad geométrica.
la provista de una serie de sensores
corrido en forma de una nube de pun-
En sus diseños Oxman trata de unir dos visiones del mundo: el artificial
y el natural, alejándose del ensamblaje en capas para acercarse al cre-
tos espaciales (en tres dimensiones).
cimiento de formas sofisticadas.
magnéticos, que almacenaban su re-
En el 2014, Nery Oxman diseñó Mushtari, las maravillas de Júpiter, un
tipo de indumentaria que explora diferentes caminos para el mantenimiento de la vida humana fuera de la Tierra. Una serie de capilares
portátiles impresos en 3D, diseñados para interactuar con el entorno
específico.
Para su investigación, Oxman desarrolló una bacteria virtual, una nueva
forma de vida creada digitalmente con capacidad de crecer. Una evolución
por diseño que combinó digitalmente dos microorganismos que no interactúan nunca en la naturaleza: la cianobacterias, que viven en los océanos y en los estanques de agua dulce; y el E. Coli, la bacteria que habita
en el intestino humano. La primera convierte la luz del sol en azúcar, mientras que la segunda consume azúcar y produce biocombustibles útiles.
316
Fig. 14. Un enjambre de 6500 gusanos
de seda fueron liberados en la base
de la semiesfera para que tejieran sus
estructuras sobre los hilos de nylon.
Con el objeto de limitar y conducir el crecimiento de la bacteria digital,
crearon un canal semejante al tracto digestivo: las bacterias crecían dentro de estos canales en donde era posible modificar las propiedades del
material según la funcionalidad deseada. Una vez que el modelo adquiría su forma definitiva, una impresora aditiva fabricaba el objeto.
La biomímesis como mentora
De acuerdo al Departamento de Asuntos Económicos y Sociales de Naciones Unidas, “Cerca de 1.200 millones de personas, casi una quinta
parte de la población mundial, vive en áreas de escasez física de agua”
(ONU, 2014). En este sentido, la insuficiencia del preciado elemento
constituye uno de los temas más polémicos de este nuevo milenio.
Marcelo A. Fraile - Arquitectura biodigital
Fig. 15. La estructura fue suspendida
en una habitación abierta pero cálida.
Los gusanos tejían sus fibras más
densas en las zonas más oscuras y
menos densas en aquellas más iluminadas.
Fig. 16 El algoritmo asignaba la ubicación, el tamaño y la densidad de las
aberturas de acuerdo al movimiento
del sol, con el fin de bloquear los rayos
de luz natural que entrarían al pabellón desde la elevación sur y este.
317
Parte IV. La génesis de un nuevo paradigma
Debido al ritmo de crecimiento de la población, el aumento de las temperaturas, la reducción de las precipitaciones, se hace necesario imaginar
alternativas para el acceso a recursos más eficientes y sostenibles.
Sin embargo, en algunas áreas con escasez de agua es posible extraerla si recurrimos a la naturaleza: un ejemplo lo realiza el escarabajo
atrapaniebla de Namibia (Stenocara gracilipes), un insecto que vive en
el desierto de África y obtiene agua de la niebla.
Fig. 17. Oxman diseñó Mushtari, las
maravillas de Júpiter, un tipo de indumentaria que explora diferentes caminos para el mantenimiento de la vida
humana fuera de la Tierra. Una serie
de capilares portátiles impresos en
3D, diseñados para interactuar con el
entorno específico.
Durante la noche, el escarabajo sube a la cima de las dunas y con su caparazón negro mate irradia calor hacia el exterior para tornarse levemente más
frío que su alrededor. Cuando corre la briza húmeda del mar, se condensan
minúsculas gotas de agua sobre su caparazón, al estar más fresco que el
entorno. Posteriormente, antes de que salga el sol, el escarabajo despliega
sus alas y genera un canal por donde el agua corre hasta su boca.
En su exoesqueleto, el escarabajo posee una serie de protuberancias en
forma de cúpula dispuestas de forma hexagonal en las partes traseras, que
protegen sus alas. Esas protuberancias son hidrofilias, es decir, actúan como
un imán, atrayendo el agua, en tanto que entre las protuberancias, hay un
acabado ceroso que las repele y provoca que se formen gotas mucho más
móviles de lo que sería una película continua de agua en el caparazón. Un
sistema muy eficiente de captación de agua (Benyus & Leal, 2012).
Este ejemplo de la naturaleza llevó a un equipo interdisciplinario de arquitectos e ingenieros, dirigidos por el arquitecto británico Michael Pawlyn,
a desarrollar en el 2012, The Sahara Forest. Ubicado en el desierto de
Qatar, se trata de una instalación agrícola de alta tecnología destinada
a revegetalizar el desierto.
Inspirado en el escarabajo atrapaniebla de Namibia, el proyecto prevé la
construcción de un invernadero que utiliza el agua del mar y la energía
solar para proporcionar alimentos, agua dulce y energía limpia.
318
El proyecto se compone de tres partes:
1. La Planta de Concentración Solar (CSP): un conjunto de espejos encargados de enfocar los rayos del sol para crear vapor de agua, que accionan una serie de turbinas productoras de energía eléctrica. Dada las
características del sistema, su funcionamiento tiene un consumo nulo de
combustibles fósiles.
2. Invernadero refrigerado mediante agua marina: un sistema de refrigeración que funciona sobre la base de la evaporación del agua.
Dada las condiciones extremas del clima desértico (calor durante el día,
y frío durante la noche), la instalación debe tratar el aire que ingresa al
invernadero (enfriándolo o calentándolo) para generar un ambiente estable, con una temperatura interior a 30ºC, con alta humedad.
Para ello el invernadero presenta una doble cubierta por donde circula el
agua salada y regula la temperatura del interior mediante evaporación, y
Marcelo A. Fraile - Arquitectura biodigital
como productor de agua limpia. Dadas las características del ambiente,
este se transforma en un desinfectante del aire al eliminar los organismos patógenos que podrían afectar los cultivos.
3. Muros de evaporación / condensación: el proyecto sustituye dos de
los muros del invernadero por muros especiales formados por paneles
de celulosa, con estructuras de celdas, que actúan como paneles de
humidificación y de evaporación: uno a barlovento (contra la dirección
del viento), y otro a sotavento (a favor de la dirección del viento).
El proceso comienza cuando el agua de mar es conducida al muro principal ubicado a barlovento (parrilla de evaporación) para que el agua en
contacto con el aire caliente del desierto se evapore. Este proceso enfría
y humidifica el aire que ingresa al interior del espacio y genera las condiciones óptimas para el crecimiento de los cultivos y la revegetación.
Fig. 18. Inspirado en el escarabajo atrapaniebla de Namibia, el proyecto prevé
la construcción de un invernadero que
utiliza el agua del mar y la energía solar
para proporcionar alimentos, agua dulce y energía limpia.
319
Parte IV. La génesis de un nuevo paradigma
Al evaporarse el agua, deja como subproductos reutilizables sal marina,
cloruro de magnesio, etcétera.
Tras atravesar el invernadero, el aire se encuentra con el segundo muro,
en la parte posterior. Este muro, ubicado a sotavento, es enfriado mediante una tubería de polietileno alimentada por agua de mar fría. Cuando el
vapor de agua entra en contacto con este muro, este se condensa y genera el agua dulce necesaria para regar los cultivos y limpiar los espejos.
Su eficiencia permite generar hasta 20 litros de agua por día por metro
cuadrado de invernadero.
El agua utilizada para limpieza de los espejos genera en el área cercana
un microclima, lo que favorece el crecimiento debajo de los espejos de
Jatropha, una vegetación nativa de África, la cual puede ser utilizada
como biocombustible.
Fig. 19. Un conjunto de espejos encargados de enfocar los rayos del sol
para crear vapor de agua, que accionan una serie de turbinas productoras
de energía eléctrica.
Fig. 20. Un sistema de refrigeración
que funciona sobre la base de la evaporación del agua.
320
Marcelo A. Fraile - Arquitectura biodigital
El proyecto tiene como objetivos a largo plazo: la producción de energía
eléctrica limpia mediante paneles solares, el desarrollo de un invernadero para el cultivo de alimentos, la producción de agua para riego y consumo, la producción de biomasa para combustible, la obtención de subproductos como la sal y la regeneración de áreas desérticas. En el futuro
se prevé la instalación de una nueva planta en el desierto de Jordania.
Un segundo ejemplo interesante al respecto es el Teatro Acuático de Las
Palmas, diseñado por el arquitecto británico Nicholas Grimshaw.
El proyecto se encuentra ubicado en la zona portuaria de Santa Catalina,
en Las Palmas, Gran Canaria, España. Un diseño biológicamente inspirado,
que busca regenerar un área industrial y transformarla en un paseo marítimo
con una cubierta ligera de 3 km para crear un parque y un bloque de alojamiento de uso mixto en los embarcaderos (Pawlyn, 2011, pp. 65-75).
Fig. 21. El proceso comienza cuando
el agua de mar es conducida al muro
principal ubicado a barlovento para
El proyecto busca explotar los recursos del lugar, utilizando para ello la
que el agua en contacto con el aire
abrupta pendiente de la playa, su relación con el agua fría cercana del
caliente del desierto se evapore. Este
mar, y la dirección constante de los vientos.
proceso enfría y humidifica el aire que
ingresa al interior del espacio.
Un sistema autosuficiente (evaporadores y condensadores) que busca
convertir el agua de mar en agua potable mediante medios naturales, y
desarrollado a través de una tecnología limpia.
Para ello, el sistema prevé una serie de altas y verticales “branquias”, ubicadas con orientación noreste (frente al mar y a los vientos constantes).
Este procedimiento está compuesto de dos elementos: los evaporadores
y los condensadores.
1. Evaporadores: inicialmente, el sistema bombea el agua caliente de la
superficie del mar, que pasa a través de las branquias. A medida que el
viento sopla a través de las branquias, parte del agua de mar se evapora
y deja como subproducto sal de mar.
Con el fin de regular el caudal de aire que pasa por el sistema, se ubicaron una serie de persianas metálicas, las cuales incorporan paneles
solares que proporcionan el calor necesario para calentar los evaporadores. Esto genera un sistema de energía renovable, de bucle cerrado.
2. Condensadores: el aire limpio y húmedo continúa su recorrido hasta chocar con una nueva serie de tuberías verticales de condensación. Esta tubería se mantiene fresca debido al bombeo de agua fría de mar, tomada a una
profundidad superior a los 1000 metros por debajo de su superficie (a esa
profundidad, el agua se mantiene a una temperatura constante de 8ºC).
A medida que el aire húmedo y caliente choca con la tubería fría, este
se condensa y cae a un receptáculo en donde se recoge el agua dulce
necesaria para abastecer a un complejo de 70.000 m2. El proceso se
completa con un sistema de bombas de agua impulsadas mediante turbinas eólicas.
321
Parte IV. La génesis de un nuevo paradigma
Fig. 22. Un sistema autosuficiente
(evaporadores y condensadores) que
busca convertir el agua de mar en
agua potable mediante medios naturales, y desarrollado a través de una
tecnología limpia.
322
Fig. 23. El sistema prevé una serie de
altas y verticales “branquias”, ubicadas con orientación noreste (frente al
mar y a los vientos constantes). Este
procedimiento está compuesto de dos
elementos: los evaporadores y los
condensadores.
Marcelo A. Fraile - Arquitectura biodigital
Teoría de enjambre
Modelos digitales bioinspirados
Las abejas se alojan en colmenas con una estricta subdivisión del trabajo: las abejas obreras, los zánganos o
la abeja reina, cada uno cumple una función dentro de este perfecto sistema natural.
Cada colmena extiende sus dominios a través de un extenso territorio. A fin de optimizar su búsqueda de flores, las abejas exploradoras son las encargadas de buscar alimento e indagar la mayor concentración de flores de un área, tarea que desarrollan instintivamente en un refinado comportamiento aleatorio desarrollado a
través del paso de millones de generaciones. Al regresar al panal, las obreras exploradoras realizan un “baile”
en una zona determinada de la colmena.
Conceptualmente, esta danza configura un lenguaje corporal, denominado “lenguaje de las abejas”, el cual fue
descubierto en 1919 por el profesor vienés Karl von Frisch (1886-1982). Mediante movimientos vibratorios del
abdomen, las abejas exploradoras informan al resto de las abejas de la colmena dónde se encuentra la fuente
de alimento más cercana.
En esta danza, las abejas obreras son atraídas a observar el baile a través de un sonido emitido por las exploradoras. De acuerdo con la duración del ritual, las exploradoras expresan, por ejemplo, la distancia de la
fuente de alimento; de acuerdo con la orientación del baile, indican la posición del sol respecto del área donde
se concentran las flores; y según su insistencia, la calidad del alimento encontrado.
Finalizado el espectáculo, las abejas obreras actuarán de acuerdo con las exploradoras que más les impresionaron, que coincide con el mejor alimento encontrado.
Su genialidad radica en seguir un complejo lenguaje, pese a su reducida inteligencia, donde una gran cantidad
de individuos con mínima capacidad cognitiva son capaces de resolver problemas complejos a través de seguir un número limitado de simples reglas: cada abeja tiene solo noción de su posición y de la de sus inmediatas compañeras, pero como parte del enjambre, cientos de abejas interactúan entre sí, pudiendo cambiar de
actitud cuando la situación lo amerite de un modo uniforme, en cuestión de segundos. De esto se desprende
el concepto de Swarm Intelligence (SI, inteligencia de enjambre), un término que procede originalmente de
la biología y que ha sido adoptado por una rama de la investigación de la inteligencia artificial para explicar el
comportamiento colectivo de los sistemas descentralizados, exhibidos por animales de tamaño similar. Sistemas autoorganizados, inspirados “…en la forma colectiva de actuar de sociedades muy poco complejas, com- 323
puestas por individuos muy poco sofisticados” (Duarte Muñoz, Pantrigo Fernández, & Gallego Carrillo, 2007).
En la naturaleza, existen numerosos ejemplos de este tipo de sociedades: bancos de peces, colonias de
hormigas o bandadas de pájaros, comunidades que se comportan como si fueran un único individuo. Una
inteligencia que emerge de entidades simples, con “capacidad censora”, que frente a los estímulos del medio
manifiesta una conducta colectiva que le permite resolver problemas con una gran creatividad.
En la teoría de inteligencia de enjambre, lo individual es reemplazado por lo comunitario: el comportamiento
colectivo viene definido por la interacción local entre agentes, con el fin de obtener un funcionamiento global
coherente.
Una inteligencia colectiva superior a la suma de sus partes, basada en el concepto de caos de la escalabilidad: un comportamiento no programado, sin una estructura de control centralizada que dirija su conducta, su
interacción conduce hacia un actuación global y compleja.
En una colonia o enjambre, cada miembro posee una inteligencia reducida, pero en conjunto, como colonia,
su conducta es inteligente.
Parte IV. La génesis de un nuevo paradigma
A diferencia de una estructura jerárquica humana, con directores o supervisores, en un enjambre no existe nadie que gobierne el sistema.
Su resultado es la consecuencia de una propiedad emergente, una correlación del funcionamiento individual e independiente de cada parte,
ya que al no existir una estructura central de control que determine la
estrategia a seguir, cada componente mantiene cierta independencia,
salvo la cooperación entre componentes próximos: y “aunque los agentes sean simples, el resultado de su interacción global puede llegar a
ser muy complejo (como la realización de movimientos prácticamente
al unísono o estrategias de protección frente a depredadores)” (Duarte
Muñoz et al., 2007).
Inteligencia de enjambre
El primero en hablar de inteligencia de enjambre fue el filósofo y escritor
de ciencia ficción británico William Olaf Stapledon (1886-1950) en 1930,
en su libro “Last and First Men: A Story of the Near and Far Future”4 donde narra una serie de células individuales que se comunicaban entre sí
por medio de ondas de radio.
Tiempo después, en 1986, el programador de computadoras Craig W.
Reynolds desarrollaría Boid5: un programa de vida artificial que permitía visualizar el comportamiento emergente de una bandada de pájaros
digitales (boids). En el modelo computarizado, cada boid elegía su propio curso y navegaba en función de la percepción del entorno dinámico
que gobernaba su movimiento, el cual estaba regido por las tres reglas
básicas de comportamiento de un enjambre: separación, alineación y
cohesión.
- Separación: capacidad de los entes de mantener una separación mínima con sus vecinos, evitando que estos se amontonen.
- Alineación: capacidad de los entes de alinearse con sus vecinos cercanos.
324
- Cohesión: capacidad de los entes de acercarse a otros entes y formar
un grupo con los entes cercanos, evitando colisionar con sus vecinos.
Fig. 24. Danza de las abejas.
Los boids trataban de volar juntos, evitando colisiones entre ellos y con
su entorno cambiante. Su comportamiento era el resultado de la interacción de los comportamientos individuales. Un patrón de conducta social
desarrollado por animales de tamaño similar agrupados entre sí.
Poco tiempo después, en 1989, los profesores estadounidenses de ingeniería eléctrica Gerardo Beni, Susan Hackwood y Jing Wang, introducirían el concepto de inteligencia de enjambre dentro del contexto de
los sistemas robóticos móviles para describir el comportamiento colecti4. Stapledon, W. (1930). Last and First Men: A Story of the Near and Far Future,
London: Metheus.
5. Acrónimo de “bird-oid object”. Una referencia a un objeto parecido a un ave.
Su pronunciación es similar a pájaro, pronunciado con estereotípico acento de
Nueva York.
Marcelo A. Fraile - Arquitectura biodigital
vo emergente. Desde este punto de vista, un enjambre se compone de
agentes que establecen relaciones de cooperación entre sí para conseguir un objetivo predefinido.
En 2013, los físicos Maksym Romensky y Vladimir Lobaskin de la University College de Dublín, Irlanda, –estudiando la autoorganización dinámica y la transición orden-desorden dentro de un sistema bidimensional
de partículas autopropulsadas–, descubrieron nuevas propiedades colectivas de la dinámica de los enjambres.
Utilizando simuladores digitales a partir de modelos físicos, comenzaron
a estudiar los parámetros de orden de las partículas en relación con sus
vecinas. Los científicos analizaron el comportamiento de 10.000 animales digitales individuales moviéndose a una velocidad constante sobre
una superficie plana.
A partir de estos estudios, Romensky y Lobaskin midieron el comportamiento de estos animales dentro de un enjambre: comportamiento que
depende de la cantidad de individuos, de su posición topográfica dentro
del modelo y de su proximidad con otros entes.
Como resultado de estas investigaciones, una nueva frontera comenzó
a adquirir gran relevancia dentro de este contexto tecnológico digital. Un
nuevo escenario que podría permitir el desarrollo de una inteligencia
artificial que podría ser usada en un sinnúmero de aplicaciones: desde el mapeo de datos hasta el ensamblaje de elementos utilizando nanorrobots. Pese a sus grandes ventajas, este modelo suscita grandes
inquietudes relacionadas con su control dado que, a diferencia de un
sistema tradicional, al no contar con un control central, una vez iniciado
el proceso, sería difícil de apagar.
Swarm conduct
En esencia, nuestras ciudades son un conjunto de individuos que operan
bajo las leyes de un sistema dinámico adaptable, basado en la interacción con sus vecinos. Una población compuesta por un gran número de
pequeños elementos discretos, que muestra un comportamiento sofisticado entre sus partes (Leach, 2009, pp. 56-63). Un grupo de personas
que, en determinadas situaciones, puede exhibir un comportamiento de
enjambre.
Steven Johnson, en su libro “Emergence: The Connected Lives of Ants,
Cities and Software”6, definió la inteligencia de enjambre como un modelo que podía ser utilizado en múltiples escalas para examinar y comprender el comportamiento de los individuos dentro de un proceso generativo de diseño. Un sistema dinámico adaptable, de interacción, que podía
ser capaz de optimizar un objetivo común a través de una búsqueda
colaborativa.
6. Johnson, S. (2004). Emergence: The Connected Lives of Ants, Cities and
Software, New York: Scribner.
325
Fig. 25. Inteligencia de enjambre: regido por las tres reglas básicas de comportamiento de un enjambre: separación, alineación y cohesión.
Parte IV. La génesis de un nuevo paradigma
La comprensión de los modos en que la naturaleza se autoorganiza puede conducirnos a predecir patrones
de comportamiento colectivo dentro de las ciudades: una técnica para entender los procesos dinámicos desde una serie de operaciones colectivas, centradas en el flujo de la información, el movimiento de vectores y
agentes digitales que interactúan dentro de un medioambiente definido.
A través del uso de modelos paramétricos digitales “bioinspirados”, es factible ampliar las posibilidades de
experimentación, interacción y optimización de variables que permitan entender, predecir, y posteriormente
solucionar, toda una serie de problemas dentro de una ciudad contemporánea.
En los últimos tiempos, la inteligencia de enjambre fue estudiada por los científicos para hacer frente a emergencias tales como accidentes naturales, incendios, o terrorismo dentro de una ciudad: algoritmos que modelan el comportamiento colectivo de los individuos en una evacuación y que permiten entender su actuación y
definir con precisión las rutas más eficientes de salida.
Una experimentación incipiente entre lo biológico y lo digital que confluye en un nuevo campo científico y tecnológico. Un proceso artificial complejo donde la autonomía emergente de cada individuo reemplaza la figura
de un control centralizado.
Una aplicación basada en modelos que utilizan multiagentes virtuales para la planificación de estrategias eficientes en diversas escalas. Modelos variables, sensibles a las condiciones del contexto durante el proceso de
diseño: una posibilidad de análisis, simulación y evaluación de múltiples versiones o variaciones.
El análisis del espacio urbano se realiza utilizando un gran número de entes virtuales denominados “partículas”. En cada sistema, las partículas pueden representar personas, edificios, vehículos, vías de circulación,
espacios públicos, etcétera.
Estas partículas se distribuyen sobre el espacio que debe ser analizado y se transforman en un enjambre
informal de puntos de referencia. Un enjambre de puntos elementales que siguen, en tiempo real, un conjunto
de reglas simples, y que están en proceso de construir relaciones entre sí.
Un enjambre de puntos que, al igual que las abejas, actúan como nodos activos, comunicándose con sus
compañeros en tiempo real y siguiendo reglas básicas: moverse en la misma dirección que sus vecinos,
permanecer cerca y evitar colisionar con estos. En consecuencia, cada agente sigue a su vecino inmediato,
calculando estas reglas varias veces por segundo, pero sin tener conocimiento consiente del grupo general.
326 De este modo, la posición de cada punto, determinada por coordenadas, representa los valores que toman las
variables de decisión del problema. Cada partícula produce un resultado que estará en función de la posición
actual y de la posición esperada. En cada interacción, el algoritmo adoptado modifica la posición del individuo,
utilizando un vector de velocidad asociado a la partícula, buscando encontrar caminos a través de un espacio
de parámetros que representan posibles soluciones alternativas (Duarte Muñoz et al., 2007).
Los puntos se transforman en una malla flexible que permite la inclusión de diferentes tipos de construcciones
urbanas para generar redes de infraestructura y circulación, formas fluidas y densas, capaces de acoplar las
nuevas estructuras a las estructuras existentes de un modo más eficiente.
Dentro de una planificación por enjambre, la ciudad ha dejado de estar formada por objetos estáticos: los diseñadores consideran la ciudad y los edificios como un enjambre de instalaciones interactivas.
La inteligencia de enjambre puede ser utilizada para la planificación arquitectónica y urbana a través de un
proceso de simulación digital de agentes en el espacio, definiendo y determinando sus limitaciones para llegar
al equilibrio del sistema.
Marcelo A. Fraile - Arquitectura biodigital
Tomemos un ejemplo: utilizando modelos de urbanismo de enjambre, intentaremos situar 1000 viviendas
unifamiliares dentro de un área por urbanizar, de baja densidad. Inicialmente, el sistema se organizará de un
modo específico, manteniendo ciertas distancias entre los agentes individuales. Un sistema complejo a través
de tres reglas simples:
1) Evitar acercarse demasiado a otras viviendas;
2) construir una trama con las viviendas cercanas y;
3) permanecer cerca de las otras viviendas.
De acuerdo con una serie de algoritmos paramétricos, cada casa fijará su posición en relación con su vecina.
Un comportamiento abierto que permite que si uno de los agentes cambia de posición, el sistema responderá
a este nuevo parámetro redefiniéndose.
Y dado que este tipo de diseño posibilita que diferentes enjambres interactúen al mismo tiempo durante el
proceso, podremos crear un enjambre de calles, otro de plazas y otro de edificios públicos, interactuando entre
ellos de forma conjunta hasta llegar a reproducir digitalmente la complejidad de una ciudad contemporánea.
El reto en este proceso será encontrar las normas más eficaces para generar dicha complejidad: algunas reglas pueden producir vida, otras aburrimiento, e incluso otras la muerte de la colmena. Un sistema de prueba
y error que provocará millones de resultados posibles y un número infinito de versiones o variaciones. Y es
precisamente allí donde la tarea del diseñador será fundamental, definiendo la interacción entre los agentes.
El diseñador deberá ajustar los parámetros y buscar las reglas para desarrollar un sistema en equilibrio, que
permita optimizar el enjambre manteniendo vivo el proceso.
Un ejemplo de la inteligencia de enjambre aplicado es Kokkugia. Una plataforma de investigación y desarrollo
establecida en 2004, con sede en Londres y Melbourne, dirigida por una red de jóvenes arquitectos australianos: Roland Snooks y Robert Stuart-Smith. Kokkugia tiene como objetivo la exploración de metodologías
de diseño generativo desarrolladas a partir de conductas de autoorganización de los sistemas biológicos,
sociales y materiales.
En 2009, Kokkugia desarrolló el proyecto de remodelación para Docklands, Melbourne, en Australia: una red
urbana en crecimiento que se transformaría en la ampliación del distrito de negocios. Una propuesta especulativa flexible que utilizó metodologías de diseño emergente aplicadas en el urbanismo: técnicas de simulaciones
basadas en inteligencia de enjambre para generar relaciones programáticas y respuestas arquitectónicas. Un 327
control indirecto que utilizaba algoritmos basados en eventos, a fin de obtener los resultados deseados: propuestas innovadoras que permitieron crear soluciones que incorporan una compleja serie de parámetros de diseño.
Conceptualmente, Kokkugia implica la interacción local de agentes autónomos: en lugar de elaborar un plan
urbano, los diseñadores programaron un conjunto de agentes capaces de autoorganizarse y generaron un sistema apto para responder de un modo flexible a las cambiantes condiciones políticas, económicas, culturales
y sociales del entorno.
Para Roland Snooks, Docklands es una comprensión de la naturaleza emergente en los espacios públicos,
centrándose en el comportamiento en tiempo real de insectos sociales digitales que actúan de acuerdo a precisas reglas previamente establecidas.
Un diseño optimizado de acuerdo al comportamiento de sus vecinos y de las huellas dejadas por estos en el
entorno. Una adaptación colectiva que se modifica de acuerdo a las fuerzas exteriores del medioambiente.
Para Kokkugia, la preocupación no se encuentra en simular las condiciones actuales, sino en idear las operaciones y procesos que involucren un diseño emergente de las ciudades: un cambio de pensamiento que
Parte IV. La génesis de un nuevo paradigma
seño optimizado de acuerdo al com-
reemplaza los planes maestros por algoritmos-maestros, un proceso
flexible que sincroniza las decisiones micro y macro producidas durante
portamiento de sus vecinos y de las
el diseño.
Fig. 26. Melbourne, Australia. Un di-
huellas dejadas por estos en el entorno. Una adaptación colectiva que
se modifica de acuerdo a las fuerzas
exteriores del medioambiente.
Poco tiempo después, en 2009, Annie Chan y Yikai Lin desarrollaron
“Ant Urbanism”, un proyecto para el área que ocupa actualmente el aeropuerto de la ciudad de Taipéi: utilizando inteligencia de enjambre, Chan
y Lin desarrollaron una serie de vías basadas en el principio de los rastros de feromonas que dejan las hormigas en su camino. Un proceso
generativo de retroalimentación no lineal capaz de formar a través de un
proceso lógico de adaptación un diseño emergente de autoorganización.
Un enfoque algorítmico que permite encontrar rápidamente las rutas
más cortas tal como lo haría una colonia de hormigas o un enjambre
de abejas.
328
Un proceso de evolución que posibilite prever en un futuro inmediato el
camino de la evolución de la ciudad. Un instrumento planificador capaz
de dar respuesta a los impulsos, interacciones y factores imprevisibles
de sus habitantes.
Una capacidad de adaptarse a las necesidades cambiantes mediante
herramientas de última generación que permiten explorar nuevas teorías urbanas, como el proyecto planteado por David Gerber y Rodrigo
Shiordia López para un área contaminada de la ciudad de México, que
propone un diseño de la infraestructura a gran escala como un apoyo a
la revitalización urbana (Gerber & Shiordia López, 2013).
El diseño de Gerber y Shiordia López utiliza un sistema abierto de enjambre compuesto por un grupo de multiagentes robóticos digitales que
reacciona a la red de riego de áreas edificables y contaminadas. Una
metodología de investigación y experimentación a través de agentes digitales cuyo enfoque generativo propone nuevas posibilidades para la
rehabilitación de los espacios contaminados.
Marcelo A. Fraile - Arquitectura biodigital
Para ello, se despliega un número determinado de agentes, los cuales
se dirigirán a las zonas de menor salinidad, ya que es allí el lugar con
mayor potencialidad para albergar especies de plantas y promocionar
la regeneración natural. Por contraposición, las zonas con alta salinidad
serán destinadas para ubicar las áreas urbanas.
Desde la ciudad al edificio, la teoría de enjambre es un enfoque emergente que permite tomar decisiones rápidas, sirviéndose de la inteligencia colectiva: un modelo basado en el comportamiento de una población
donde individuos digitales con poca inteligencia, bajo nivel de comunicación entre sí, y dentro de un espacio predefinido, exhiben un comportamiento colectivo inteligente y autoorganizado de carácter global que no
sigue a un líder o un plan global. Un modelo ideal para ser aplicado para
la planificación de transportes, telecomunicaciones y protocolos de red.
Un sistema colaborativo, con una interfaz gráfica, que permite la interacción, comunicación y colaboración entre los diferentes agentes digitales.
Una exploración de los beneficios del uso de sistemas de enjambres
centrados en la infraestructura a partir del uso de algoritmos paramétricos para su optimización analítica.
Sistemas adaptativos a las necesidades cambiantes que constituyen la
base de la nueva planificación. Herramientas biodigitales que exploran
nuevas teorías urbanas y abren la puerta a infinitos resultados.
Las enseñanzas de la naturaleza para el nuevo milenio
Las actividades humanas han producido un fuerte desequilibrio en el
medioambiente, al alterar el ecosistema y ocasionar la extinción de un
número alarmante de formas de vida. Para la investigadora norteamericana Janine Benyus, la humanidad se encuentra en una etapa importante de su evolución. Como especie, nos hemos expandido en número
y territorio hasta límites extremadamente peligrosos, ahora somos demasiados y nuestro hábitat ya no es sostenible: “…envueltos en nuestra
propia versión del conocimiento, hemos sido poco receptivos a la sabiduría del mundo natural” (2012).
En este punto, para Benyus, existen cuatro pasos que deberemos seguir, si pretendemos llegar a un futuro biomimético en armonía con
el ecosistema. En primer lugar, sumergirnos en la naturaleza, bajo
una lógica de reconectarnos con el medioambiente, permitiéndonos
aprender de este; en segundo lugar, un acercamiento a pensar el
medioambiente desde su flora y su fauna, descubriendo sus talentos,
sus trucos de supervivencia y su rol dentro del ecosistema; en tercer
lugar, desarrollar un equipo colaborativo entre biólogos e ingenieros,
fijando la naturaleza como modelo y como medida; y finalmente, en
cuarto lugar, preservar la diversidad de la vida, que es precisamente
allí donde se garantiza el equilibrio para llegar a recursos naturales
disponibles (Benyus & Leal, 2012).
Fig. 27. Ant urbanismo. Un instrumento
planificador capaz de dar respuesta a
los impulsos, interacciones y factores
imprevisibles de sus habitantes.
329
Parte IV. La génesis de un nuevo paradigma
Fig. 28. El proyecto ciudad de México
utiliza un sistema abierto de enjambre
compuesto por un grupo de multiagentes robóticos digitales que reacciona a
la red de riego de áreas edificables y
contaminadas.
Estamos en una carrera de rescate donde no existen los segundos lugares. Desde este punto de vista, la innovación, la tecnología y la biología
se revelan como las claves para afrontar el incremento de la demanda
energética y el cambio climático de este nuevo milenio.
Para el filósofo francés Michel Serres (1930), “estamos frente a una nueva humanidad”, una humanidad que domina la tecnología de la creación,
una tecnología que posibilita el nacimiento, la reproducción y la sexualidad, alejándonos cada día más de la muerte.
Por su parte, el zoólogo Juliant Vincent considera que todavía estamos
en un 10% de transferencia entre biología y tecnología, se precisa de
una nueva mirada más audaz que nos permita afrontar estos desafíos.
330
Se necesita de un proceso más eficaz de traducción, un puente que
vincule los diseños de la naturaleza con el campo de la tecnología: pues
mientras la evolución genera un sistema de control detallado y profundo, la tecnología elabora modelos de respuesta global centrados en la
modificación de un reducido número de parámetros. Para la biología, la
respuesta se desarrolla en diferentes escalas, en tanto que para la tecnología, esta se da siempre en la misma escala.
En el campo de la disciplina, la arquitectura biomimética añade una
nueva capa de información. Sistemas especialmente modificados que
asocian lo tecnológico con lo ecológico, en un nuevo proceso de diseño y materialización, donde cada proyecto es único e irrepetible. Una
realidad híbrida, una realidad de modelos tecnológicos bioinspirados,
sistemas nanos, estructuras de crecimiento arborescentes, inteligentes, flexibles y autosuficientes, que desencadenan nuevos procesos y
nuevas lógicas de transformación de la realidad física producida por el
hombre. Un diseño biológico, donde las computadoras son como los
nuevos hornos de los cuales emergen de lo profundo nuevos organismos con sus respuestas.
Marcelo A. Fraile - Arquitectura biodigital
Figuras
Fig. 1. a la Fig. 6. Arizona Tower/ Bio-Tower. www.exodesic.org/TrussImages/
DBA2-150-pdf
Fig. 7. a la Fig. 9. Water-base Digital Fabrication Platform. http://matter.media.
mit.edu/environments/details/water-based-digital-fabrication-platform
Fig. 10. y Fig. 11. Ocean Pavilion. https://www.semanticscholar.org/paper/
DESIGNING-THE-OCEAN-PAVILION-Biomaterial-Templatin-Mogas-SoldevilaDuro-Royo/34637602502a8215bd5828709326c092844b416c
Fig. 12. a la Fig. 15 y Fig. 17. Pabellón de Seda. https://www.
plataformaarquitectura.cl/cl/02-290166/pabellon-de-seda-mit-media-lab
Fig. 16. Mushtari. http://www.materialecology.com/projects/details/
mushtari#prettyPhoto
Fig. 18. a la Fig. 21. The Sahara Forest. http://aasarchitecture.com/2012/11/
sahara-forest-project.html
Fig. 22. Teatro del agua. http://www.cladglobal.com/architecture-designfeatures?codeid=29664
Fig. 23. Teatro del agua. http://pruned.blogspot.com.ar/2007/06/teatro-del-agua.
html
Fig. 24. Danza de las abejas. http://ecocolmena.com/wp-content/
uploads/2013/07/Direction-figure.jpg
Fig. 25. Inteligencia de enjambre. http://daniel.faus.at/wp-content/
uploads/2014/10/UltimateUrban0.jpg
Fig. 26. Proyecto Melbourne, Australia. http://www.kokkugia.com/swarmurbanism
http://www.architizer.com/firms/kokkugia
Fig. 27. Ant Urbanism. https://neilleach.wordpress.com/teaching/studio-work/anturbanism/
Fig. 28. Proyecto ciudad de México. Gerber, D., Shiordia López, R. (2013)
Context-Aware. Multi-Agent Systems. Negotiating Intensive Fields, California:
University of Southern California.
331
Marcelo A. Fraile - Arquitectura biodigital
ARQUITECTURA GENÉTICA
Leonardo Da Vinci, era un gran observador de la naturaleza,“… estaba realmente fascinado por el vuelo de los pájaros… Meditaba continuamente sobre la forma de sus alas, la frecuencia de su movimiento,
la estructura interna de sus huesos, piel, plumas, nervios… e intentaba continuamente comprender por qué los pájaros eran capaces de
volar”. (De Garrido, 2012).
Salvador Dalí y la biología
Con frecuencia, el arte se adelanta a la ciencia en su carácter de anticipador y revolucionario. Uno de estos casos es el del pintor español
surrealista Salvador Dalí (1904-1989).
En Dalí, su relación con la ciencia comenzó desde su adolescencia y se
prolongaría a lo largo de toda su vida. Sus pinturas contienen una síntesis, en etapas, de los contenidos extraídos de esta: desde el mundo de
los sueños de Sigmund Freud, pasando por la bomba atómica y la fusión
del átomo, hasta las influencias producidas durante la década del 60 por
la genética, el ADN y su estructura.
Con respecto a la genética, Dalí incorporaría estas teorías en diferentes
pinturas. Una de las primeras obras al respecto es Butterfly Landscape.
The Great Masturbator in a Surrealist Landscape with D.N.A. (Paisaje
con mariposas. El Gran Masturbador en paisaje surrealista con ADN)
de 1957, en donde aparece una secuencia del ADN alrededor de la cual
sobrevuelan algunas mariposas (Urbano, 2016).
Para Daniel López del Rincón, profesor de la Universidad de Barcelona, esta obra se trata de un autorretrato doble: por un lado, surrealista
(representado en el Gran Masturbador); y por el otro, genético (representado en la estructura del ADN). En esta elucidación, las mariposas
revoloteando entre ambas figuras actuarían a modo de mensajero, una
alusión al ARN (2015).
Otra obra también dedicada al ADN es Galacidalacidesoxiribonucleic,
de 1963, donde pinta una reinterpretación de la molécula del ADN a
partir de figuras de árabes con fusiles (Urbano, 2016). Formas cubicas
regulares que representan el concepto de la creación a través de una
perfecta distribución geométrica de sus elementos.
Ese mismo año, Dalí desarrolla un collage titulado Homenaje a Crick y
Watson, en donde aparecen dos retratos fotográficos de los científicos.
En la parte inferior, sitúa una imagen de la estructura molecular del ADN
sobre la que dibuja pequeñas figuras humanas con bastones que parecen componer la estructura, desempeñando la función del ARN (López
del Rincón, 2015). Posteriormente, en 1975, Dalí pintaría La escalera
de Jacob y comenzaría a desarrollar La estructura del ADN, dos claras
alusiones al ARN y la molécula del ADN.
Fig. 1. Dalí, S. (1957). Butterfly Landscape. The Great Masturbator in a
Surrealist Landscape with D.N.A.
333
Parte IV. La génesis de un nuevo paradigma
Con el tiempo, estas tendencias biológicas en el arte se extenderían a
diversos representantes, experimentando un auge creciente con la llegada de la informática, durante la década de 1990, y con la introducción de
herramientas genéticas, a comienzos del siglo XXI, lo que llegó a producir
un importante salto hacia lo que se conoce como bioarte.
El bioarte
En 2014, Ted Lawson (1970), un reconocido artista de origen estadounidense, comenzó a trabajar con una técnica llamada “Drawing Blood”
(dibujando con sangre). Esta técnica consiste en un dispositivo que extrae por vía intravenosa la sangre de Lawson y la conduce a una máquina CNC (controlado numéricamente por computadora) modificada, para
que dibuje con esta sobre un lienzo, un autorretrato en tamaño natural
del artista.
Fig. 2. Dalí, S. (1963). Galacidalacidesoxiribonucleic.
El dibujo inicial de esta serie, llamado “Ghost In The Machine”, fue el
resultado de miles y miles de líneas de código fuente, escritas para que
la máquina CNC pudiera imprimir el dibujo.
Este y otros trabajos de Lawson fueron expuestos el 11 de septiembre de
2014, en una muestra individual titulada “The Map is Not the Territory” (El
mapa no es el territorio), que tuvo lugar en la galería Joseph Gross de Nueva
York: “…una exploración de la experiencia existencial humana a través de
los modelos imaginarios del universo como la forma física” (Lawson, 2014).
Para la producción de esta obra, Lawson debió pasar horas “conectado”
a la máquina vertiendo su sangre, mientras el cabezal robot de la “impresora” se movía sigilosamente, desarrollando su trabajo: como una
escena futurista salida de una película de Ridley Scott, un ciborg artista
sentado en su laboratorio observaba distraídamente mientras creaba
abstracciones orgánicas utilizando su líquido vital como materia prima.
334
Claro está, la obra de Lawson no es la primera vez que el arte nos impacta de ese modo: son incontables los momentos en que este y la ciencia se han unido para generar grandes debates en torno de sus creaciones. Artistas de la talla del británico Damien Hirst1, el londinense Neil
Harbisson2, o el alemán Gunther von Hagens3 fueron cuestionados, no
reconocidos, e incluso rechazados por las singularidades de sus obras.
Desde la moda de piercing hasta las cirugías estéticas, son los precursores de una nueva época definida por la “…automodelación genómica”
(Bratton, 2002): una de las corrientes artísticas más atrevidas y de mayor vigencia de los últimos años.
Inspirado en el uso de la biotecnología, el bioarte o arte transgénico,
utiliza materiales orgánicos ajenos o propios, como recursos artísticos
para expresarse: animales, plantas, genes u órganos humanos, nada
está vedado en su práctica.
1 Mother and Child (Divided), 1993, Damien Hirst.
2 Eyeborg, 2004, Neil Harbisson y Adam Montandon.
3 Body Worlds, 1996, Gunther von Hagens.
Marcelo A. Fraile - Arquitectura biodigital
Para el profesor López del Rincón, “el término bioarte es un neologismo
aparecido a principios del siglo XXI para designar genéricamente a un
conjunto de prácticas artísticas que relacionan arte, biología y, muy frecuentemente tecnología” (2015).
El primer antecedente conocido de bioarte puede rastrearse hasta
1995, cuando el Dr. Joseph Vacanti (1948), un cirujano especialista en
trasplantes de la Universidad de Massachusetts, y Linda Griffith-Cima
(1960), una ingeniera química, implantaron un cartílago con forma de
oído humano bajo la piel de un roedor calvo: una “…representación de
las génesis de una época donde es clara la reestructuración por elección
de lo que es el cuerpo visto como máquina, y lo que es la máquina vista
como cuerpo” (Bratton, 2002). Y, a pesar de que esta acción respondía
exclusivamente a objetivos científicos, lo cierto es que este experimento
impactó en un grupo de artistas que vieron en esta tecnología un nuevo
modo de manifestarse.
Uno de los proyectos mejor conocidos de bioarte de este siglo es Alba,
del artista brasileño Eduardo Kac (1962), un conejo modificado genéticamente para brillar en la oscuridad.
En una búsqueda de nuevas relaciones con el mundo de la genética,
Kac inyectó al conejo proteínas verde fluorescente (GFP), extraídas de
las medusas Aequiorea Victoria. Al exponer al animal a la luz azul con
un nivel de excitación máximo de 488 nanómetros, este emite una luminiscencia verde4.
A través de un progreso tecnológico, el bioarte construye nuevos discursos atrayentes que involucran la ciencia, la biología y el arte, ampliando
las fronteras de nuestro conocimiento.
Fig. 3. En 2014, Ted Lawson comen-
Entre el 2000 y el 2001, Kac desarrolló El octavo día: una obra de arte
que investiga esta nueva ecología. El proyecto consistía en una semiesfera en cuyo interior se encontraba una ecología transgénica modificada
genéticamente para producir un brillo verde al ser expuesto a la luz azul.
Para una investigación más precisa, Kac introdujo un “biobot”: un robot
con elementos biológicos activos dentro de su cuerpo, que le permitía
tener una perspectiva en primera persona del ecosistema transgénico.
en un dispositivo que extrae por vía
El bioarte supone para los artistas el nacimiento de una nueva ecología, una
manipulación de organismos vivos sin un límite claro al respecto, llevándolos
a veces a poner en jaque incluso la propia naturaleza de su cuerpo.
Este es el caso del artista de performance australiano Stelios Arcadiou
(1946), mejor conocido como Stelarc, quien en 1996 se embarcó en “extra ear”, uno de sus desafíos más audaces y que le llevaría diez años
poder concretarlo. El proyecto consistía en el implante de una oreja en
4 El proyecto recibió la colaboración del artista Louis Bec y de los científicos
Louis-Marie Houdebine y Patrick Prunet, del Instituto Nacional de la Investigación Agronómica de Francia. Dado el enérgico debate que produjo, los responsables del Instituto de Investigación Agronómica de Francia, donde Alba fue
creada, decidieron no entregar el animal a Kac, quien pretendía convertirlo en la
mascota de su familia.
zó a trabajar con una técnica llamada
“Drawing Blood”. Esta técnica consiste
intravenosa la sangre de Lawson y la
conduce a una máquina CNC modificada, para que dibuje con esta sobre
un lienzo, un autorretrato en tamaño 335
natural del artista.
Parte IV. La génesis de un nuevo paradigma
la parte interna de su antebrazo izquierdo. Para Stelarc “…es un órgano
telemático, en vez de biológico. [Su] trabajo no tiene nada que ver con la
cirugía estética, ni con la búsqueda de un ideal de belleza, sino con la
posibilidad de ampliar el sistema sensorial” (Bosco, 2007).
Luego de una cirugía que involucró a tres cirujanos, el artista pudo obtener su implante bajo la piel del brazo: una prótesis biológica hecha de
un material biocompatible utilizado comúnmente en la cirugía plástica.
Pero esto recién comenzaba; mediante el empleo de células madres,
los especialistas deberían hacer crecer el lóbulo y darle forma para que
posteriormente fuera posible despegar el pabellón. Finalmente, se instalaría un micrófono que a través de la tecnología bluetooth se conectaría
con internet para permitir que la gente de todo el mundo fuera capaz de
“sintonizar” las 24 horas del día, lo que el artista escuchaba.
Interesado en las posibilidades de repensar y rediseñar el cuerpo humano, Stelarc centra su investigación en la búsqueda de nuevas arquitecturas anatómicas, que en el caso de extra ear replica una estructura del
cuerpo, no solo para oír sino también para transmitir.
La biología provee una de las más importantes fuentes de inspiración
para su investigación. Sin embargo, para el artista australiano, el cuerpo
humano es una realidad obsoleta, es por esto que en sus investigaciones cuestiona constantemente la naturaleza: utiliza su organismo y
lo combina con partes nanorrobóticas, dispositivos electrónicos, y más
recientemente con realidad virtual y tecnología wi-fi.
Fig. 4. Kac inyectó al conejo proteínas
verde fluorescente (GFP), extraídas
de las medusas Aequiorea Victoria. Al
exponer al animal a la luz azul con un
nivel de excitación máximo de 488 nanómetros, este emite una luminiscen-
336
cia verde.
Stelarc considera las prótesis no como algo faltante sino, por el contrario, como el síntoma de un exceso. Así, en lugar de reemplazar una
parte carente o en mal funcionamiento, las interfaces y los dispositivos
aumentan o amplían la forma y las funciones del cuerpo (Stelarc, 2015).
En un mundo con una fuerte impronta tecnológico-genética, donde las
fronteras multidisciplinares parecen esfumarse, no es extraño que el
bioarte muchas veces sea confundido con el biohacking5. Quizás este
sea el caso de las gotas de visión nocturna (biohack de visión nocturna) un compuesto denominado Clorina e6 (Ce6), fotosensible utilizado
en ocasiones para el tratamiento contra el cáncer. Este compuesto fue
inyectado al investigador Gabriel Licina en los tejidos conjuntivales, junto
con unos lentes de contacto negros que le permitieron ver en la oscuridad. Para Licina, su experimento funcionó temporalmente durante seis
horas y le permitió ver en condiciones de baja iluminación a una distancia de cincuenta metros.
Un caso similar es el del estadounidense Rich Lee, con fuertes problemas auditivos, quien decidió someterse a una operación quirúrgica para
implantarse imanes en sus oídos con el fin de mejorar sus habilidades
5. Se define como biohacking a la forma en que las personas modifican o alteran
su cuerpo con la intención de ampliar las capacidades humanas: busca acelerar
la evolución del Homo Sapiens a través de la tecnología. Desgraciadamente, son
procedimientos extremos, los cuales generalmente no son realizados por doctores y se llevan adelante sin las condiciones mínimas de seguridad requeridas, lo
que los convierte en extremadamente peligrosos.
Marcelo A. Fraile - Arquitectura biodigital
auditivas, lo que le permitió conectarse con diferentes equipos electrónicos sin cable.
Las nuevas tecnologías biológico-digitales están trastocando la sociedad en la que vivimos, generan incertidumbre, pero también oportunidades para imaginar escenarios nuevos y valiosos: “cada cambio que sucede va a provocar mediatas o inmediatas transformaciones en el todo,
cuyo valor y calidad, a su vez, depende de la densidad, la proporción, la
cualidad y la presencia de los diferentes componentes” (Zátonyi, 2011).
El bioarte, con su carácter innovador, ha permitido explorar diversos
caminos y hoy es usado para crear obras polémicas: una nueva generación de artistas que no teme desafiar el paradigma ético de la manipulación genética. Un universo que ha dejado de ser una máquina para
convertirse en un organismo.
La era de las protocélulas
De acuerdo con su definición, un organismo vivo es:
“…un ‘conjunto de átomos y moléculas que forman una estructura
material organizada y compleja, en la que intervienen sistemas de
comunicación molecular, que se relaciona con el ambiente con un
intercambio de materia y energía de una forma ordenada, y que tiene
Fig. 5. Stelarc considera las prótesis
la capacidad de desempeñar las funciones básicas de la vida que
trario, como el síntoma de un exceso.
son la nutrición, la relación y la reproducción” (Aresta, 2012, p. 17).
Así, en lugar de reemplazar una parte
De la definición anterior se desprende que, para que un sistema sea considerado como un organismo vivo, este debe cumplir con tres criterios
específicos: en primer lugar, requiere de un cuerpo, un contenedor que
lo separe del medioambiente a través de una membrana sintética semipermeable que le permita establecer relaciones químicas con el entorno;
en segundo lugar, debe poseer un metabolismo, un proceso dinámico
mediante el cual el organismo absorbe la energía necesaria para la vida y
expulsa los productos de desecho –un proceso químico que convierte los
recursos del entorno (materiales), en bloques de construcción para mantenerse y autoconstruirse–; y finalmente debe poseer información heredada, un sistema de almacenamiento de información química, guardada
en su ADN o ARN y que transmitirá a su descendencia (Hanczyc, 2011).
Un sistema con cuerpo y metabolismo será capaz del autoensamblaje,
del movimiento, y de la evolución, pero si además presenta condiciones
de información heredada, será posible crear una estructura superior,
una especie de vida artificial capaz de evolucionar (Hanczyc, 2011).
A este sistema se lo conoce como protocélula, “…un conjunto químico
similar a la vida en forma de un sistema de células artificiales que es
capaz de mantenerse, autorreproducirse y potencialmente evolucionar”
(Spiller & Armstrong, 2011). Un modelo químico simplificado que reduce
su complejidad a través de la disminución del número de moléculas que
interactúan en cada célula, de millones a decenas (Hanczyc, 2011).
no como algo faltante sino, por el con-
carente o en mal funcionamiento, las
interfaces y los dispositivos aumentan
o amplían la forma y las funciones del
cuerpo (Stelarc, 2015).
Fig. 6. El bioarte, con su carácter inno337
vador, ha permitido explorar diversos
caminos y hoy es usado para crear
obras polémicas.
Parte IV. La génesis de un nuevo paradigma
Estamos siendo partícipes de un nuevo modo de contemplar el mundo: “El mundo como un organismo” (Oxman, 2016). Las nuevas tecnologías emergentes definen el comienzo de una nueva revolución. Un nuevo proceso biológico que desarrolla productos naturales sin materiales homogéneos ni ensamblajes.
Las protocélulas son una nueva tecnología que semeja el procesamiento de la información existente en la biología: una “…etapa de transición hacia la creación de células completamente artificiales” (Spiller & Armstrong,
2011). Una forma intermedia entre el mundo inorgánico y el orgánico, una forma que posee algunos de los
atributos rudimentarios de la vida, a la cual se le irán añadiendo gradualmente otros atributos en el transcurso
de su desarrollo gracias a las acciones evolutivas del ambiente (Hanczyc, 2011).
Las protocélulas no operan dentro de los procesos biológicos, no son necesariamente vivas, no han sido producidas a través de sistemas regulados mediante el ADN, su campo está gobernado por las leyes de la física
y de la química.
Y, a diferencia de los sistemas biológicos naturales que evolucionan de acuerdo a la teoría de Darwin, las
protocélulas admiten intervenciones programadas “…para acumularse, dispersarse y reconfigurarse” (Iwamotto, 2011, pp. 112-121) lo que permite producir un número infinito de formas. Un sistema simbiótico con la
naturaleza, una conexión físico-química que reacciona e interactúa a nivel poblacional con el medioambiente.
Un ejemplo interesante al respecto, son las protocélulas basadas en la química del aceite y el agua, unas
protocélulas simples que, mediante el autoensamblaje –una capacidad innata de las moléculas de reunirse
espontáneamente–, se asocian para formar estructuras cada vez más grandes, hasta finalmente convertirse
en un sistema capaz de moverse, sentir, modificarse y construir: un sistema simbiótico que “…en lugar de
competir contra los sistemas y materiales existentes… comparten un lenguaje físico común con los sistemas
naturales llamado ‘metabolismo’” (Spiller, 2011, pp. 60-67).
La protocélula es un nuevo método de diseño: un proceso disruptivo en la arquitectura, concebido en los laboratorios, que permite el desarrollo de estructuras capaces de crecer y autocontrolarse “…a través de quimiotaxis, fototaxis, autoensamblaje y autoorganización” (Clear, 2011, pp. 122-127). Una evolución emergente capaz
de reemplazar las tecnologías convencionales, al modificar en su camino la estética arquitectónica, donde el
papel del arquitecto se acerca al de un médico o un técnico científico (Slavinsky, 2011, pp. 90-99).
338
Una tecnología que no busca imitar o reproducir la naturaleza, por el contrario, lo que busca es “…producir
arquitectura en la forma en que una planta produce su fruto. No queremos representar, queremos producir
directamente” (Wiley, 2011).
Para la arquitecta británica Rachel Armstrong, “…los sistemas vivos con sus propios metabolismos proporcionan soluciones más emocionantes y de mayor alcance que los materiales de construcción convencionales”
(2011, pp. 68-77).
Armstrong, junto con el arquitecto británico Neil Spiller, de la Escuela de Arquitectura Bartlett, buscaban desarrollar nuevos materiales metabólicos para la práctica de la arquitectura. En los últimos años, Armstrong
incluyó en su equipo al químico Martin Hanczyc, del Laboratorio del Instituto de Física y Química (FLinT) de
la Universidad del Sur de Dinamarca, para el desarrollo de protocélulas simples autoconstruidas a través del
autoensamblaje. Una protocélula, carente de ADN, pero capaz de desplazarse por su ambiente, seguir gradientes químicos e incluso experimentar reacciones complejas. Para Hanczyc, las protocélulas, “…se crea[n]
a partir de sus ingredientes químicos en lugar de despojarse de un sistema biológico preexistente” (2011).
Algunas protocélulas permiten desarrollar una nueva generación de materiales inteligentes, capaces de reaccionar ante el clima, almacenar la energía solar a nivel químico, acumular el agua de lluvia, o extraer el dióxido
de carbono de la atmosfera y convertirlo en carbonato (Armstrong, 2009).
Marcelo A. Fraile - Arquitectura biodigital
Un ejemplo interesante al respecto es la remodelación del Puente de
Sarajevo de Barcelona, del 2014, del estudio BCQ Arquitectura (Toni
Casamor y David Baena). El proyecto busca reducir la contaminación
ambiental de la Ciudad, a través de un proceso denominado fotocatálisis: un principio natural por el cual, gracias a la acción de la luz solar en
combinación con un agente catalizador (dióxido de titanio), transforma
el dióxido de carbono de la atmosfera en sales inertes y solubles en
agua. Una ampliación de los límites del sistema, bajo un desarrollo sinérgico entre tecnología y naturaleza: un aprendizaje colaborativo con el
medioambiente, de acuerdo con las condiciones cambiantes del entorno.
Otro ejemplo análogo al anterior es el pabellón de Canadá de la 12.ª
Exposición Internacional de Arquitectura de Venecia del 2010. El proyecto estuvo dedicado a la obra del arquitecto y escultor canadiense Philip
Beesley: una variante de su proyecto Hylozoic Ground.
De acuerdo a su definición, el hilozoísmo es una doctrina metafísica que
considera que toda materia tiene vida. A partir de este concepto, Beesley
desarrolló Hylozoic Ground, una nueva visión para el despliegue de una arquitectura receptiva. Una sofisticada tecnología interactiva mediante sensores y comandos “arduinos”, que incluía un sistema de filtrado y sombreado
interactivo. Un sistema que emulaba la actividad de un organismo vivo y
reaccionaba ante la presencia de un ser humano (luz, humedad y tacto).
Fig. 7. El proyecto busca reducir la contaminación ambiental de la Ciudad, a
través de un proceso denominado fotocatálisis: un principio natural por el
cual, gracias a la acción de la luz solar
en combinación con un agente catali-
Una serie de microprocesadores y pequeños sensores de proximidad
comandaban miles de componentes livianos fabricados digitalmente en
zador (dióxido de titanio), transforma
acrílico transparente.
en sales inertes y solubles en agua.
el dióxido de carbono de la atmosfera
Para la exposición se utilizó el agua de la laguna de Venecia, contenida
en una serie de tubos de diferentes formas. Estos recipientes alojaban
también en su interior una suspensión de algas, las cuales aislaban, purificaban y sombreaban los espacios interiores, y otorgaban al ambiente
fascinantes características de color y textura. Características que iban
cambiando de acuerdo con el ciclo de vida de las algas.
339
Parte IV. La génesis de un nuevo paradigma
De este modo, el ambiente se transformaba en un espacio sensible que funcionaba como un pulmón que,
junto con los actuadores, “…crea[ban] ondas de movimiento empático, atrayendo a los visitantes hacia las
misteriosas y brillantes profundidades de un paisaje mítico, frágil bosque de luz” (Beesley, 2010).
Para Beesley, el desafío fue combinar la estructura artificial con un crecimiento orgánico: “…materiales que
son ligeros, curativos y [que] potencialmente pueden renovarse” (Rocho, 2010).
Poco tiempo después de la Bienal de Venecia, la arquitecta Armstrong junto con el arquitecto Neil Spiller (quienes habían trabajado junto con Beesley) diseñaron Future Venice. Una tecnología que puede ser utilizada para
reparar de un modo sostenible los pilotes sumergidos de madera que soportan la Ciudad al transformarlos a
través de un proceso químico metabólico en una base mas amplia para soportar las cargas. Un proceso que
busca revertir tres siglos de erosión activa, inundada por el aqua alta periódica y desecada por el calor del sol.
Un nuevo enfoque centrado en compuestos químicos inorgánicos capaces de ser programados “…para detectar
los cambios ambientales, generar energía, autorrepara[rse], cambiar las propiedades e incluso competir con
otros materiales de construcción por los recursos” (Cronin, 2011, pp. 34-43).
El proyecto plantea una “tecnología viva” de protocélulas activas compuestas por un tejido dinámico que desarrolla una sustancia parecida a la piedra caliza, o bioconcreto cuando este se encuentra en reposo, lejos de la
luz del sol. Una serie de “gotas programables” que utilizan el dióxido de carbono y los minerales disueltos en el
agua de la laguna para construir una capa protectora de bioconcreto sobre los pilares de madera, lo que detiene
su exposición a los agentes atmosféricos. Un crecimiento de arrecifes de piedra caliza artificial bajo la Ciudad
que conforma una superficie estructural (microestructuras) alrededor de los pilares de madera (Rocho, 2010).
Y, aunque las partículas son independientes, actúan en conjunto a partir de relaciones químicas que se conectan con el mundo biológico. Un diseño de materiales inteligentes, sensibles y adaptativos, capaces de “…
alterar la materia en su entorno, reelaborando y reposicionando este material en el tiempo y el espacio” (Spiller
& Armstrong, 2011).
En este sentido, las protocélulas pertenecen a una nueva generación de materiales bioinspirados: entes discretos preparados para interactuar y organizarse entre sí, que generan procesos metabólicos a través de
enlaces físico-químicos. Una tecnología disponible por doquier. Es la química de la tierra, una contraposición
a la tecnología victoriana, una nueva tecnología apropiada para países en desarrollo como así también para
países del primer mundo.
340 Desde este punto de vista, si el objetivo de la humanidad es avanzar en la revolución de lo sostenible para
reducir el consumo de energía y la producción de desechos, la respuesta parece estar en la escala de la molécula y no en la de la articulación mecánica (Khan, 2011, pp. 50-59). En consecuencia, las protocélulas parecen
ser el camino para la generación de una nueva arquitectura, una arquitectura imposible de especificar si fue
creadas a través de procesos naturales o artificiales.
Arquitectura genética
A comienzos de un nuevo milenio, los avanzados conceptos en materia de biotecnología se presentan prometedores para algunos investigadores que ven en la genética el germen para una revolución en la arquitectura.
Una segunda generación de diseñadores que, con una mirada más allá de la utilización de la tecnología como
una herramienta generativa de formas, apoyan su arquitectura en la naturaleza, tomando prestada la teoría de
la evolución por medio de la selección natural de Darwin (1871). Estos proyectistas entienden el diseño bajo
un lenguaje genético de elementos vivos, donde el muro es transformado en una piel orgánica, una membrana
celular bajo un proceso continuo de crecimiento selectivo con un alto grado de adaptabilidad individual, capaz
de automantenerse, de autorreproducirse, y de evolucionar.
Marcelo A. Fraile - Arquitectura biodigital
Fig. 8. Para la exposición se utilizó el agua de la laguna de Venecia,
contenida en una serie de tubos de
diferentes formas. Estos recipientes
alojaban también en su interior una
suspensión de algas, las cuales aislaban, purificaban y sombreaban los
espacios interiores.
341
Parte IV. La génesis de un nuevo paradigma
Fig. 9. Una serie de “gotas programables” que utilizan el dióxido de carbono y los minerales disueltos en el agua
de la laguna para construir una capa
protectora de bioconcreto sobre los
pilares de madera, lo que detiene su
exposición a los agentes atmosféricos.
342
Marcelo A. Fraile - Arquitectura biodigital
Desde este punto de vista, la arquitectura genética biológica puede ser considerada como “aquella creada e
implementada con técnicas biológicas y genéticas reales”, una arquitectura que estudia primordialmente los
genes y el ADN encargado de controlar la estructura y el funcionamiento de cada célula (Estévez, 2014). Por
su parte, para el arquitecto Karl Chu, el espacio genético puede ser definido como “…una prolongación de lo
que él mismo denomina como una nueva concepción cósmica de la razón que evolucionará, a partir de los
cambios en la conciencia humana con respecto al espacio-tiempo” (Steele, 2001, p. 141).
Un cambio en los modos de proyectación donde el arquitecto ya no busca diseñar la forma física final de su
proyecto, sino su proceso de programación; una automatización de variables, un edificio vivo que cambia continuamente. Una arquitectura “…increíblemente perfecta y disponible para las modificaciones cuando se las
habita concreta y simbólicamente” (Bratton, 2002).
En consecuencia, es importante entender esta arquitectura no como una metáfora, sino como una realidad
tangible, diseñada a nivel molecular, “…incidiendo en el diseño genético de las cadenas de programación que
luego desarrolla[ra]n por sí solas elementos informativos artificiales y elementos vivos naturales” (Estévez,
2003, pp. 10-17).
Para el arquitecto Karl Chu, esta arquitectura biológica considera tres parámetros interrelacionados: en primer
lugar, la concepción de formas arquitectónicas genéticamente desarrolladas; en segundo lugar, el modelado
de formas físicas recombinadas; y, en tercer lugar, la aplicación de biomateriales artificiales utilizados para la
construcción de ambientes edificados (Bratton, 2002).
Una arquitectura genética que explora las variaciones y combinaciones que afectan a su forma a través de
mutaciones aleatorias, seguidas por una selección natural capaz de elegir cuál transformación sobrevivirá:
un espacio genéticamente activo, contenedor de “…múltiples formas… que transmiten procesos puramente
biológicos a sistemas biotécnicos más complejos” (Bratton, 2002).
Un ejemplo interesante al respecto es el de la compañía canadiense Nexia Biotechnologie Inc, quienes, en el
año 2012, desarrollaron Biosteel: una tecnología capaz de producir literalmente bioacero.
El proceso consiste en inyectar genes de la araña Nephila clavipes (mejor conocida como araña hilo de oro)
en los embriones de la cabra Saanen (Capra aegagrus hircus). El animal “transgénico” obtenido es capaz de
producir leche que contiene en su composición proteínas solubles de seda. A continuación, la leche es procesada con el fin de extraer las proteínas Golden Spider Siper, las cuáles serán utilizadas durante la producción
del bioacero. Finalmente, el material es forzado a pasar a través de una boquilla que adelgaza el producto y
343
origina una finísima fibra de un solo filamento.
Dadas sus propiedades intrínsecas, el bioacero es compatible con el cuerpo humano y puede utilizarse para
reparar tejidos biológicos, curar heridas o crear suturas muy sutiles, biodegradables en cirugías de ojos o
neurocirugía.
En arquitectura, el bioacero podría ser empleado como material en reemplazo del acero como soporte estructural, o incluso como revestimiento. Para el presidente de Biotecnología Nexia, el biólogo molecular Jeffrey
Turner, estas fibras son “…mucho más resistente[s] que el acero y tiene[n] una resistencia a la rotura de cerca
de 410 toneladas por metro cuadrado. También es un 25 por ciento más liviana que los polímeros sintéticos
derivados de petróleo” (Bratton, 2002).
En consecuencia, estamos frente a un nuevo tipo de arquitectura que propone sustituir los materiales tradicionales por biomateriales: desarrollados en laboratorios, una nueva gama de materiales con una calidad y
precisión asombrosa, capaces de desarrollar una arquitectura verdaderamente sustentable, que “…extiende la
responsabilidad del diseño a niveles de materialidad molecular y genética” (Bratton, 2002).
Parte IV. La génesis de un nuevo paradigma
Una arquitectura que al igual que la naturaleza, no trabaja con líneas rectas, esta “…optimiza las estructuras para minimizar el uso de los recursos”
(Watts, 2011, pp. 128-134). Ya no busca la belleza, sino lo real, lo auténtico, y
en esta indagación puede llegar a extremos brutales. Una arquitectura que
toma elementos vivos y los integra al hecho arquitectónico para crear un
bioentorno autosuficiente que pueda entrar en simbiosis con el ser humano.
Para el arquitecto americano William Mc Donough (1951) y el químico
alemán Michael Braungart (1958), “…los productos pueden ser ‘diseñado[s] desde el principio para que, tras su vida útil, puedan nutrir algo
nuevo… que fácilmente puedan volver a incorporarse en el agua, o al
Fig. 10. El animal “transgénico” es capaz de producir unas proteínas, las
cuáles serán utilizadas durante la producción del bioacero.
suelo, sin depositar materiales sintéticos y toxinas” (Bratton, 2002).
Un proyecto ejemplificador de esto es el Fab Tree Hab: un diseño desarrollado por los estudiantes Mitchell Joachim, Lara Greden, y Javier Arbona, del Massachusetts Institute of Technology de California6. Basado
en un antiguo procedimiento denominado “pleaching” –que consiste en
entrelazar las ramas de los árboles para formar arcos vivientes, celosías o pantallas–, el proyecto plantea el “cultivo de viviendas” utilizando
árboles nativos que permanecen vivos e integrados con el ecosistema
(Antonelli & Myers, 2014, p. 58).
Para ello, se desarrolla una estructura-marco de madera contrachapada
extraíble, diseñada por computadora y construida mediante tecnología
CNC. Este marco sirve de soporte a los árboles y las plantas durante su
crecimiento. Una vez que los elementos vivos están interconectados y
son estables, el marco de madera se retira y puede ser reutilizado.
Los troncos de árboles como el olmo o el roble forman los elementos
que soportan las cargas, mientras que las ramas proporcionan un marco
continuo entrecruzado para las paredes y el techo. Entrelazados en todo
el exterior, por una capa protectora de vides.
344
Las paredes interiores están resueltas con tecnología convencional de
tabiques de yeso, en tanto que las aberturas son de bioplástico, que
puede adaptarse al crecimiento, manejando el flujo de los nutrientes y
garantizando el interior seco y libre de insectos.
Dos niveles de ventanas aseguran la ventilación de la casa, en tanto que
una serie de tuberías con radiadores solares garantizan el agua caliente
y la calefacción. La casa posee un sistema de recolección de agua y reutilización de aguas grises. Dependiendo de las condiciones climáticas
y de ubicación, se espera que el proyecto demore siete años.
Un enfoque sustentable de la tecnología para el desarrollo de una nueva
arquitectura autogenerativa capaz de crecer, autorrepararse, enfriarse,
calentarse e incluso responder a los cambios abruptos del entorno.
El arquitecto diseña un espacio viviente mutable que se desarrolla en
el tiempo de manera flexible: “La imaginación del arquitecto ya no sería
6 Expuestos en el Museum of Modern Art, NY., del 20 de julio al 20 de octubre
de 2008.
Marcelo A. Fraile - Arquitectura biodigital
Fig. 11. El proyecto plantea el “cultivo
de viviendas” utilizando árboles nativos que permanecen vivos e integrados con el ecosistema (Antonelli &
Myers, 2014, p. 58).
345
estática; evolucionaría de tal manera que la codificación de la estructura
cambiaría su papel de arquitecto a creador” (Cronin, 2011, pp. 34-43).
Un ejemplo interesante al respecto es el Genetic Barcelona Proyect,
desarrollado por el arquitecto Alberto Estévez, de la Universidad Internacional de Catalunya. Un proyecto que comenzó en el año 2000, cuyo
objetivo es “…disponer para la ciudad y las casas de luz no eléctrica y
natural, obtenida al introducir determinadas proteínas luminiscentes en
el ADN del arbolado urbano” (Estévez, 2005).
Mediante la inclusión de elementos vivos como parte integral del proyecto, contribuiría a mejorar el funcionamiento físico de los edificios y
el funcionamiento de la ciudad, permitiendo un ahorro energético en el
consumo destinado a iluminación urbana (Estévez, 2003, p. 10).
A partir de la utilización de la proteína GFP (Green Fluorescent Protein),
originaria de la medusa Aequorea Victoria, del noroeste del Pacífico,
Parte IV. La génesis de un nuevo paradigma
Estévez introdujo dicha proteína en el ADN del arbolado urbano: una
proteína inocua que ha convertido siete limoneros en una especie bioluminiscente, “…sin polen, o con la GFP en el cloroplasto, para que la
polinización no suponga un problema” (Estévez, 2006).
Actualmente, el proyecto se encuentra desarrollando su segunda fase
que busca hacer más eficiente la bioluminiscencia para uso doméstico
y urbano. Una mirada sustentable, “Ante el cada vez más próximo futuro
agotamiento de los recursos naturales no renovables …que deben aportarse para impedir el colapso de nuestra civilización” (Estévez, 2006).
Un proyecto semejante está siendo desarrollado por la empresa francesa Glowee. Un sistema de iluminación que utiliza bacterias modificadas
genéticamente (no tóxicas y no patógenas) para absorber la energía del
sol y el dióxido de carbono de la atmosfera y a cambio exhalar oxígeno
mientras emiten de forma natural un resplandor fluorescente.
Diseñadas y cultivadas, estas bacterias se encapsulan en un receptáculo transparente, junto a un espacio con nutrientes para la vida de las
bacterias. Una fría y suave luz, sin necesidad de infraestructura adicional, que aprovecha las capacidades especiales de los microorganismos
y que permite un ahorro de energía eléctrica y una reducción de la emisión de CO2 (Rey, 2016).
Fig. 12. Genetic Barcelona Proyect.
Estévez, Alberto. Mediante la inclusión
de elementos vivos como parte integral del proyecto, contribuiría a mejorar el funcionamiento físico de los edificios y el funcionamiento de la ciudad,
permitiendo un ahorro energético en
el consumo destinado a iluminación
urbana (Estévez, 2003, p. 10).
346
En la naturaleza, “Lo que existe, existe porque ha superado alguna clase de selección, [ha] supera[do] una selección que equivale a superar
una prueba de compatibilidad con el resto de la realidad” (Wagensberg,
2013, p. 25).
Desde este punto de vista, nos encontramos en el inicio de una nueva etapa donde comenzamos a cuestionar los referentes inamovibles
del antiguo paradigma y a exigir nuevas respuestas alternativas y poco
convencionales. Nuevas respuestas donde gracias a un enfoque interdisciplinario y al uso de los nuevos sistemas digitales estamos estable-
Marcelo A. Fraile - Arquitectura biodigital
Fig. 13. Genetic Barcelona Proyect.
Estévez, Alberto. A partir de la utilización de la proteína GFP (Green
Fluorescent Protein), originaria de la
medusa Aequorea Victoria, del noroeste del Pacífico, Estévez introdujo
dicha proteína en el ADN del arbolado
urbano.
ciendo una nueva relación con la naturaleza: un sistema perfectamente
diseñado de los procesos de interconexión entre energía y nutrientes,
para finalmente modificar las concepciones tradicionales del tiempo y
del espacio.
Para el investigador español Jorge Wagensberg (1948), “La ciencia nunca se cierra definitivamente. En la ciencia, como en la realidad misma,
todo está siempre inacabándose” (2013, p. 16)
El arquitecto británico Dan Slavinsky, egresado de University College London (UCL), posee una importante producción gráfica de gran
difusión en los últimos tiempos, siendo algunos de sus trabajos expuestos, durante el año 2010, en el Victoria & Albert Museum de esa
ciudad.
Entre sus investigaciones más recientes, se encuentran los bocetos
para un nuevo tipo de arquitectura futurista, con fuertes características orgánicas. Una yuxtaposición de formas donde alas, patas y ojos
cambian de escala, ayudados por una “tecnología híbrida”, para combinar la arquitectura con la naturaleza.
Entre sus proyectos más destacados se encuentra “In Arcadia at the
End of Time” (En arcadia al final del tiempo), una propuesta que explora las posibilidades de una arquitectura flexible, sobre las bases
de este nuevo enfoque, planteando sistemas centrados en el uso de
tecnologías híbridas para integrar mejor nuestra arquitectura con la
naturaleza (Slavinsky, 2011, pp. 90-99).
Figuras
Fig. 1. Paisaje con mariposas. El Gran Masturbador en paisaje surrealista con
ADN. https://uploads8.wikiart.org/images/salvador-dali/butterfly-landscape-thegreat-masturbator-in-a-surrealist-landscape-with-d-n-a.jpg
Fig. 2. Galacidalacidesoxiribonucleic. http://frankodean.com/2013/02/12/thedali-museum/
347
Parte IV. La génesis de un nuevo paradigma
Fig. 14. “En arcadia al final del tiempo”,
se explora las posibilidades de una
arquitectura flexible, sobre las bases
de este nuevo enfoque, planteando
sistemas centrados en el uso de tecnologías híbridas para integrar mejor
nuestra arquitectura con la naturaleza
(Slavinsky, 2011, pp. 90-99).
Fig. 3. Ted Lawson. http://www.tedlawson.com/artwork/ghost-in-the-machine/
348
Fig. 4. Alba, Eduardo Kac. http://www.ekac.org/gfpbunny.html
Fig. 5. Stelarc. http://stelarc.org/?catID=20290
Fig. 6. Visión Nocturna. http://es.engadget.com/2015/03/27/superhumanohombre-vision-nocturna-inyeccion/
Fig. 7. Puente de Sarajevo de Barcelona. https://www.arquitecturayempresa.es/
noticia/bcq-convertira-el-puente-de-sarajevo-de-barcelona-en-una-estructuracapaz-de-disolver-la
Fig. 8. pabellón de Canadá de la 12.ª Exposición Internacional de Arquitectura
de Venecia del 2010. http://www.philipbeesleyarchitect.com/sculptures/0929_
Hylozoic_Ground_Venice/
Fig. 9. Protocélulas. https://www.dezeen.com/2014/05/30/movie-rachel-armstrongfuture-venice-growing-giant-artificial-reef/
Fig.10. Bioacero. http://agroecologiavenezuela.blogspot.com.ar/2016/05/
glandulas-de-seda-de-una-arana.html
Fig. 11. Fab Tree Hab. http://www.archinode.com/fab-tree-hab-3.html
Fig. 12. y Fig. 13. Genetic Barcelona Proyect. http://www.albertoestevez.com/
building/tripticobcn_Cimpr.htm
Fig. 14. En arcadia al final del tiempo. http://sumaunahoramenos.blogspot.com.
ar/2012/07/dan-slavinsky.html
Marcelo A. Fraile - Arquitectura biodigital
LA NAVAJA DE OCKHAM
“¿Por qué temen lo nuevo? ¿Por qué resucitar a los muertos? ¿Por qué tratan de reanimar el brillo de una
época pasada por la reconstrucción de un ícono perdido hace mucho tiempo? Toda la disputa es una farsa, la
creación de un zombi; carne virtual y elástica es toda lo que queda en nuestro mundo de polímeros”. (Krauel,
2010, p. 328).
La Tierra está rodeada por una envoltura gaseosa conocida como atmósfera: una sucesión de capas en movimiento, que conforman una masa de densidad heterogénea, con una altura aproximada de unos 2000 kilómetros.
Regidos por la segunda ley de Newton, conocida como “Ley fundamental de la dinámica”, los diferentes gases
se desplazan a través de la atmósfera en un proceso complejo –de capas en movimiento que se cruzan, se
superponen y se influyen entre sí continuamente–. Para que esto suceda, se requiere de la energía del sol, el
cual produce cambios en la temperatura y la presión del aire y modifica su densidad; esto, junto con la rotación
de la Tierra, produce un movimiento continuo de los gases en diferentes escalas y capas.
Como vimos, a finales del siglo
XX,
el filósofo y ensayista polaco Zygmunt Bauman (1925-2017) utilizaba el
concepto de fluidez como una metáfora adecuada para explicar la sociedad del mundo contemporáneo. Para
Bauman, “La ‘fluidez’ es la cualidad de los líquidos y los gases… que ‘en descanso, no pueden sostener una
fuerza tangencial o cortante’ y, por lo tanto, ‘sufren un continuo cambio de forma cuando se los somete a esa
tensión”. Asociado con el concepto de levedad, los fluidos no conservan su forma durante mucho tiempo: “…no
se fijan al espacio ni se atan al tiempo” (1999, p. 7 y 8).
Estamos en presencia de una contemporaneidad sin certezas, un proceso que, para el escritor zaragozano
Alberto Royo, ha evolucionado de la sociedad “lÍquida” de Bauman, hacia una sociedad “gaseosa”, en la que:
“la inmediatez, la búsqueda de rentabilidad, la falta de exigencia y autoexigencia, el desprecio de la tradición,
la obsesión innovadora, el consumismo, la educación placebo, el arrinconamiento de las humanidades y de la
filosofía, la mediocridad asumida y la ignorancia satisfecha hacen tambalearse aquello que pensábamos que
era más consistente” (Royo, 2017, pp. 19-20).
Una sociedad “…donde todo es inestable, nada perdura, y prima la inmediatez, la incertidumbre, el materialismo y el relativismo moral” (Salso, 2017). Una sociedad que, al igual que las moléculas de un gas, se interrelaciona entre sí, forma enlaces moleculares, adopta solo de un modo pasajero la forma del recipiente que lo
contiene, pudiendo comprimir, o expandir su volumen, de acuerdo con el cambio de temperatura y de presión. 349
Un fenómeno análogo al de las nubes y que, como éstas, se mueve en capas, cambiantes y dinámicas.
Se trata de la “muerte de los grandes relatos”, del filósofo francés Jean-François Lyotard (1924-1998), para
transformarse en una contemporaneidad con pequeños relatos, a veces hasta contradictorios. Una contemporaneidad sin certidumbres, con propósitos particulares, donde el papel de lo tecnológico está cambiando la
idea que se tiene del arquitecto y de la disciplina.
Estamos frente a una revolución copernicana, una revolución científica que discurre por direcciones inesperadas. Una acumulación de anomalías que ha conducido hacia un período de crisis donde los problemas
requieren de nuevos enfoques aparentemente radicales. Se ha comenzado a desdibujar el antiguo paradigma
mecanicista, y se hace necesario un fuerte ajuste de la teoría.
Durante este proceso de crisis, se desarrollan diferentes hipótesis especulativas e inarticuladas que indican el
cambio. Pese a ello, el paradigma mecanicista no se rinde con demasiada facilidad, aún no se da por vencido.
Dentro de un campo no académico, no se renuncia al antiguo modelo que pervive en la memoria colectiva.
También algunos investigadores se aferran al viejo paradigma, lo que produce solapamientos parciales, “…
Parte V. Conclusiones
pero nunca total[es] entre los problemas que se pueden resolver con el viejo y con el nuevo paradigma, [surgiendo nuevas] diferencias en los modos de solucionarlos” (Kuhn, 1962, p. 176).
Esta transición que “… dista de ser un proceso acumulativo logrado mediante la articulación o extensión del
paradigma viejo” (Kuhn, 1962, p. 176). Es por esto que las diferencias entre modelos sucesivos son irreconciliables. No solo dicen cosas distintas, sino que también, bajo el principio de inconmensurabilidad, las teorías
científicas que los sustentan son incompatibles; se hace imposible compararlos.
Es preciso un cambio de herramientas. Una visión kuhniana del paradigma, que promete resolver problemas
que no se sabe cómo atacar, al poner a trabajar a los investigadores de manera coherente, sin necesidad de
reglas explícitas. Los investigadores adoptarán estos nuevos instrumentos que los harán descubrir nuevas cosas. Y, aunque el mundo no cambie con este nuevo paradigma, los científicos trabajarán en un mundo distinto
(Kuhn, 1962, p. 227).
Vivimos un momento muy especial de la historia, donde confluyen diferentes disciplinas que ofrecen al diseñador una nueva gama de herramientas nunca antes utilizadas en el diseño. El surgimiento de estas nuevas
teorías se ven precedidas por un período de inseguridad causado por la destrucción del antiguo patrón.
Estamos ante un nuevo modelo de diseño que contrasta con el antiguo –desarrollado por la Revolución Industrial que tenía como paradigma la máquina, la fabricación y la producción en partes diferentes, que serían
posteriormente ensambladas–. Se trata de un proceso donde confluyen cuatro disciplinas. Estos campos son:
- el diseño digital;
- la prefabricación aditiva;
- la ingeniería de los materiales inteligentes;
- y finalmente, la exploración de nuevas funcionalidades biológicas.
1. El diseño digital
Históricamente, la habilidad de dibujar a mano alzada fue considerada como un elemento de valor fundamental en la disciplina arquitectónica. Sin embargo, a partir de la década del 80, con la llegada de los sistemas de
representación digital, este concepto comenzó a tener un valor cada vez más relativo.
350
Hoy en día, resulta imposible imaginar el diseño arquitectónico sin el uso de los sistemas digitales. Una tecnología, que “…ha traspasado diversos umbrales socioculturales antes los cuales el Arte, el Diseño y la Arquitectura no han estado ajenos” (D. Cruz, 2013).
En este contexto, la disciplina del diseño ha llegado a lugares impensados: una transversalidad que ha hecho
evidente diferentes manifestaciones desde el ámbito del pensamiento y la praxis artística, y que ha provocado
nuevos modelos de acercamiento y comprensión de la creatividad (D. Cruz, 2013).
Ya han pasado treinta años en los que los arquitectos han estado dibujando mediante sistemas digitales: “Los
programas CAD han hecho que el dibujo bidimensional sea eficiente, fácil de editar y, con un poco de práctica, sea fácil de hacer” (Iwamoto, 2009). Sistemas de representación cada vez más avanzados que con cada
actualización han introducido nuevas mejoras: modelos digitales tridimensionales que han permitido elaborar
complejas geometrías, superficies NURBS y mallas poligonales, una realidad virtual que pronto comenzó a
tener carácter de “aumentada”.
Por esta razón, ya existían suficientes pruebas que demostraban claramente los méritos del uso de la tecnología informática en la arquitectura.
Marcelo A. Fraile - Arquitectura biodigital
Sin embargo, pese a que el sistema CAD había reemplazado los sistemas tradicionales de dibujo en papel y
lápiz, su arquitectura no había evolucionado de la misma manera. Fue necesario un nuevo salto para que los
sistemas digitales dejaran de ser considerados meras herramientas de representación y se transformaran en
parte importantes del proceso de proyectación.
Una nueva mirada audaz y atrevida que liberase la imaginación del diseñador hacia derroteros desconocidos:
redefiniendo el papel del arquitecto contemporáneo para que considere la tecnología como una aliada proyectual, donde “las formas dejaron de ser dibujadas o representadas para pasar a ser calculadas” (Dery, 2008) y
ahora también impresas.
Una realidad reinventada a partir de fórmulas matemáticas, científicas y biológicas, que han permitido el desarrollo secuencial de formas y códigos reeditables; una situación intermedia, un in between, que ha transformado el espacio y el tiempo y deja sus tradicionales definiciones obsoletas.
Estamos ante lo que podríamos denominar “…una dimensión quántica… una dimensión fragmentada, que se
puede entender como olas. Las implicaciones de esta alteración no son inmediatas”. Sus ecos tardan en llegar
y mucho más en hacerse notar: “Los no-lugares, los no-space, los no-time son las condiciones radicalmente
fenoménicas que reemplazan la realidad de lo vivido” (Grigoriadou, 2014).
Una arquitectura de múltiples capas, donde la materia se ha convertido en información binaria, definida a
partir de líneas de código. Lo que para el arquitecto americano George Legendre son formas matemáticas “…
basadas en la modelización paramétrica de superficies variables” (Alonso, 2009, p. 13).
Un pensamiento algorítmico, sistemático, que utiliza una serie de pasos o etapas previamente establecidas
para resolver el problema. Una morfología que remite a lo viviente, a una arquitectura que se “…acomoda [a
este fresco] mundo a través de pliegues y dobleces” (Fernández Galiano, 1998), y donde los diseñadores que
trabajan con estos modelos digitales generan protoformas, con distintas capas de información superpuestas:
formas desarrolladas a través de procesos lógicos, que tienden a la abstracción, y son interpretados a la luz
de la razón, bajo procesos que las transforman continuamente.
Esto implica un nuevo modo de plantear la relación entre teoría y práctica que está influyendo tanto en la arquitectura, como en la conformación que tendrán las ciudades en los siglos venideros. Modificando de una vez
y para siempre la “noción de espacio, que elaboró la Modernidad” (Doberti, 2008, p. 75 y ss.) y que durante
mucho tiempo funcionó como marco determinante de nuestra vida.
Estamos ante una traducción algorítmica de la información, que reemplaza la importancia de su resultado for- 351
mal. Una realidad líquida, flexible y cambiante, donde una matriz flotante de datos se entrecruza para generar
una adaptación programática con requisitos ajustables por sus creadores, evitando la duplicación y redundancia de la información. La expresión de una nueva estética: modelos inteligentes, preparados para reaccionar y
relacionar a través de un sinfín de variables –extrayendo particularidades, encontrando relaciones, evaluando
su impacto en tiempo real mientras se diseña–, que permiten obtener infinitas versiones dentro de un ambiente
controlado.
Asistimos, a una búsqueda de resultados cada vez más eficientes y funcionales a los estímulos del medio,
bajo una gestión efectiva de la energía y de los recursos naturales en el proceso proyectual, que crea por encima de su apariencia una “arquitectura del rendimiento”.
No obstante, el concepto de arquitectura digital no debe ser considerado como un concepto monosémico, su
significado se encuentra bajo un proceso de continua mutación y es diferente para cada arquitecto.
Para el arquitecto chileno Arturo Lyon, es posible identificar dos posturas diametralmente opuestas: por un
lado, algunos diseñadores como Karl Chu consideran la tecnología “…como una herramienta orientada a la
Parte V. Conclusiones
búsqueda de nuevas formas y organizaciones”, un diseño evolutivo que no busca controlar el efecto final del
proyecto, sino el proceso que genera el proyecto; por otro lado, diseñadores como el británico Cecil Balmond
(1943) consideran la tecnología digital como una herramienta orientada a la construcción, a través de “…racionalizar [las] formas complejas predefinidas” para facilitar su posterior materialización (2009, p. 31).
Por su parte, el profesor americano Kostas Terzidis, en su libro “Algorithmic Architecture”1, aboga por una
reinterpretación integral de los modos de usar los sistemas digitales. Para Terzidis, el uso de las computadoras presenta características más complejas que implican “…la exploración de los procesos indeterminados,
vagos, poco claros y a menudo indefinidos; dada su naturaleza exploratoria, la computación busca emular o
ampliar el intelecto humano” (Dunn & Casasnovas, 2012, pp. 60-61).
Sin embargo, aún subsisten importantes vacíos teóricos dejados por los diseñadores que comenzaron a utilizar la tecnología informática. Para Greg Lynn, el diseño digital comenzó a definirse “…como ‘experimental’,
sin indicar las hipótesis sobre las que se fundó, haciendo imposible evaluar ningún resultado cualitativamente”
(Lynn, 2013).
En este sentido, es curioso cómo Frank Gehry afirma que no puede utilizar las computadoras en sus diseños,
pero que, sin embargo, ha creado una compañía de software de avanzada para arquitectos, o que Peter Eisenman haya olvidado su profunda utilización durante el diseño del Biozentrum de Frankfurt.
A pesar de esto, los sistemas digitales poseen cada vez más relevancia en la arquitectura contemporánea. Un
cambio crítico dentro de la disciplina ya que –aunque aún subsista el mito del azar, de los accidentes felices,
de los experimentos sin motivación y de la eterna aversión del diseñador por ceder el control del proceso
proyectual a un software (Lynn, 2013)–, estamos ante una poderosa herramienta generativa-proyectual que
está modificando el modo de “diseñar” y “materializar” la arquitectura del mañana.
2. La prefabricación aditiva
En poco menos de 30 años, la incorporación de nuevas tecnologías digitales de producción en el campo de la
arquitectura ha generado un punto de inflexión en el diseño contemporáneo. Una tecnología que ha permitido
el desarrollo y la fabricación de modelos físicos mediante máquinas a partir de parámetros binarios.
El diseñador utiliza las nuevas tecnologías y reabre el viejo debate renacentista que había separado al proyectista del constructor. Para el arquitecto Marco Kolarevic, hemos recobrado el antiguo rol de maestro de obras
352 y restablecido el vínculo entre proyecto y materialización (E. Lyon, 2009, p. 54). Una recuperación, a través de
la tecnología, de los deseos de John Ruskin, William Morris y de los Arts and Crafts.
Se presenta una nueva forma de interpretar el espacio y su geometría, un viaje entre la macro y la micro escala, que agiliza la producción, y permite el desarrollo eficiente de los procesos, a través de una retroalimentación entre el diseño y la elaboración, “…como si se tratara de artesanos, pero utilizando las herramientas
actuales que la tecnología permite” (Orcivoli, 2004, p. 96).
Un proceso que facilita la toma de decisiones, la coordinación de diferentes actividades, así como la corrección o redireccionamiento de las tareas, de ser necesario. Una eliminación de los pasos intermedios, en un
continuum óptimo donde arquitectos, ingenieros, estructuralistas y especialistas conforman un equipo multidisciplinario para generar un nuevo tipo de arquitectura.
Para el arquitecto neozelandés Mark Burry (1957), el uso de las tecnologías digitales de fabricación pueden transformarse en el antídoto contra la estandarización a la que obliga el empeño por reducir los costes de producción, ya
que permite desarrollar múltiples versiones e incluso personalizaciones de un producto (Krauel, 2010, p. 119).
1. Tezidis, K. (2006). Algorithmic Architecture, Burlington, Architectural Press, p. XI.
Marcelo A. Fraile - Arquitectura biodigital
Bajo el slogan de “continua diferenciación”, formulado por Greg Lynn y Jeff Kipnis, la construcción digital
ha producido un renacer de la cultura artesanal, mediante una concepción algorítmica. El diseñador, en su
búsqueda constante, ha utilizado los programas digitales para elaborar modelos informáticos, manejando
variables, para su posterior fabricación. En palabras de Kolarevic, es una “…nueva capacidad para generar
información de construcción directamente a partir de información de diseño’” (Iwamoto, 2009).
Hoy una producción no-estandarizada ha reemplazado el concepto de producción en serie por el de “personalización masiva”, donde “…la multiplicidad y la complejidad de los elementos de diseño no guardan una relación directa con el coste y la eficiencia del proceso de producción” (Dunn & Casasnovas, 2012, p. 84). En este
sentido, cada producto ahora es desarrollado en forma individual, por lo que es igual de eficiente “…fabricar
piezas idénticas como fabricar piezas únicas” (Kottas, 2013).
Desde cortadoras láser o fresadoras CNC, hasta máquinas de fabricación aditiva, han permitido desarrollar
importantes ventajas en el campo de la materialización arquitectónica y han facilitado el paso de lo conceptual
a lo práctico: “Ya no se piensa en función de una serie o repetición, sino en versiones o variaciones” (Ortega
& Zaera-Polo, 2009).
Estructuras de alta complejidad geométrica pueden ser ahora modeladas a través de códigos paramétricos y
montadas en obra mediante brazos mecánicos, lo que reduce “…la brecha entre la representación y la construcción, ofreciendo una conexión hipotéticamente perfecta entre diseño y fabricación” (Iwamoto, 2009).
En el futuro próximo, dará lo mismo construir en Ámsterdan, Hong Kong o la Luna; la fabricación digital continúa evolucionando para desarrollar resultados sin precedentes y despierta la imaginación de los jóvenes
diseñadores. En este sentido, el estudio de Frank Genry y su proyecto para el Museo Guggenheim Bilbao han
influenciado a toda una generación de nuevos arquitectos.
Sin embargo, “…hay invariablemente lagunas entre los modos de hacer. Y, al igual que con todas las herramientas de producción, las mismas técnicas que abren estas investigaciones tienen sus propios conjuntos de
restricciones y engranan modos particulares de trabajar” (Iwamoto, 2009).
Pese a esto, en poco tiempo, la fabricación digital ha crecido y ha generado lo que el arquitecto estadunidense Michael Speaks denominó “inteligencia de diseño”, un modo de hacer que en el proceso se transforme en
conocimiento o creación inteligente (Iwamoto, 2009).
Una avanzada tecnología, mediante plataformas inalámbricas M2M (Machine to machine), que facilita la comunicación máquina a máquina, e involucra en el proceso múltiples dispositivos para desarrollar una infraes- 353
tructura de interacción nodal, interrelacionada a través de la nube, capaz de ser monitoreada y diagnosticada
en línea, lo que permite la automatización de los sistemas de fabricación y su posterior montaje mediante
servomecanismos.
3. La ingeniería de los materiales inteligentes
Inspirados en procesos biomiméticos y a través de la biología sintética, hemos alterado los límites tecnológicos
que impedían el desarrollo de estructuras biointeligentes a escala arquitectónica. Una tecnología emergente
que, en palabras del filósofo francés Pierre Lévy (1956), está desmaterializando los límites de las disciplinas,
para desarrollar un gran mosaico de opciones y de posibilidades (Hight & Perry, 2006).
En este sentido, mediante la implementación de procesos ecológicamente amigables, derivados de patrones
estructurales de la naturaleza, estamos desarrollando una nueva generación de materiales inteligentes, con
capacidad de cambiar sus propiedades de acuerdo con las condiciones ambientales, y con un bajo consumo
de energía. Materiales con memoria, una capacidad inherente que les permite recordar sus características
iniciales una vez que la acción o el estímulo ha cesado y dar la misma respuesta ante similares excitaciones.
Parte V. Conclusiones
Materiales que de acuerdo con las características de sus respuestas podrán ser: pasivos, es decir que actúan
sin la necesidad de un estímulo externo; o activos, es decir, que responden a los estímulos del exterior.
El reto para el futuro será abordar la morfología de los nuevos planteos: una ingeniería de la naturaleza donde
los materiales de construcción puedan ser cultivados “…a través de reacciones químicas inducidas biológicamente, y donde las partes de nivel molecular se autoensamblan en estructuras grandes” (Stacey, 2013). Una
posición provocativa para desarrollar una arquitectura compleja y coevolucionada. Un diseño con un alto grado
de refinamiento e identidad.
Biomateriales inteligentes que exhiben mecanismos de “autorreparación”. Es decir, un proceso mediante el cual
los materiales controlan sus procesos físicos-químicos y se organizan en estructuras cristalinas, al endurecerse o ablandarse de acuerdo a las acciones del entorno.
El nuevo paradigma implica entender los sistemas biológicos como compuestos de unidades modulares montadas (Stacey, 2013). Materiales biológicamente compatibles, adaptados a las necesidades, se han transformado en una conexión con el futuro. Un nuevo sistema que conduce el proyecto a una escala donde el diseño
de los detalles se produce manipulando sus ADN.
La línea entre lo natural y lo artificial se está borrando progresivamente, bajo un territorio emergente que explora las prácticas biológicas contemporáneas para planificar y diseñar, lo que para el editor estadounidense
Kevin Kelly (1952) podría denominarse “neobiológico”, es decir, una biologización de nuestro mundo (M. Cruz
& Pike, 2008, pp. 6-16).
Superficies activas autolimpiantes, filtros inteligentes para la desalinización del agua salada, turbinas eólicas
de alto rendimiento, nanotubos para la captación de energía solar, son parte de una extensa lista de nuevos
materiales y técnicas constructivas que están cambiando el panorama del diseño contemporáneo y liberan la
imaginación espacial y formal del diseñador en su búsqueda de un nuevo lenguaje para estos tiempos.
Desde las plantas luminosas de Antony Evans de la firma Glowing Plants hasta el proyecto Barcelona Genética de Alberto Estévez, cada vez es más común el desarrollo de plantas alteradas genéticamente para que
brillen en la oscuridad con luz propia: organismos biológicamente diseñados, tal como lo hace la propia naturaleza, bajo la promesa de una energía limpia, renovable y sostenible.
En este contexto, el arquitecto se ha transformado en un promotor de investigaciones sobre los materiales inteligentes. Un metadiseñador que proyecta y experimenta con sus comportamientos, de acuerdo con un proceso
354 de programación: el diseñador ha pasado de escultor a cultivador de materiales (Stacey, 2013).
4. La exploración de nuevas funcionalidades biológicas
En los 4 mil millones de años que tiene el planeta, los sistemas naturales han dominado las estrategias de
crecimiento, diferenciación, complejidad y evolución en formas localmente especializadas.
Dada sus características intrínsecas, los sistemas biológicos exhiben una gran variedad de formas y funciones
que representan soluciones óptimas, “…altamente eficientes [en el consumo] de la energía y otros recursos y
son capaces de procesos como el autoensamblaje programado y la adaptabilidad” (Stacey, 2013).
Es decir, a diferencia del hombre que emplea grandes cantidades de energía para desarrollar sus actividades,
los organismos vivos continuamente modifican sus estructuras o comportamiento con el fin de aprovechar el
máximo de la energía. Bajo un concepto de homeostasis, estos organismos tienden a mantener las condiciones estables del medio.
Marcelo A. Fraile - Arquitectura biodigital
No es de extrañar entonces, la fascinación que la naturaleza despierta en los diseñadores contemporáneos, como
fuente de inspiración para imitar sus características, funciones o procesos biológicos (Estévez, 2005, p. 017).
Un estudio que intenta extraer las reglas morfogenéticas y los parámetros proporcionales y estructurales de
los sistemas biológicos para utilizarlos posteriormente, a través de las tecnologías digitales, en el desarrollo
de una arquitectura de vanguardia.
En este sentido, han resultado relevantes las investigaciones de arquitectos como John Frazer, Karl Chu, o Greg
Lynn, que han estudiado la intersección de las computadoras con los códigos genéticos, al entenderla como un
mecanismo de exploración para el futuro de la arquitectura. Una indagación del lenguaje y los patrones naturales
de la forma, utilizando para ello expresiones matemáticas apoyadas en herramientas informáticas: un ADN digital
que crece, se modifica a través de cruzamientos y mutaciones, para definir los parámetros del futuro proyecto.
Una búsqueda de soluciones creativas e innovadoras, a través de la introducción de leyes que intentan encontrar la geometría secreta de la naturaleza. Un proceso evolutivo complejo y menos determinista que posibilita
a los diseñadores acercarse a formas biológicas y a los procesos de la naturaleza de un modo indeterminado,
variable e interactivo: formas criadas por el diseñador (breeding design), siguiendo las leyes de los sistemas
dinámicos con el objetivo de enriquecer el proyecto (Alonso, 2009, p. 14).
El concepto de lo biológico se ha extendido para generar una arquitectura resultante de la interacción de las
fuerzas externas del ambiente, donde la concentración de la materia se da en regiones de grandes cargas
y se dispersa en aquellas áreas donde la rigidez no es requerida, lo que efectiviza la estructura y facilita la
capacidad principal del material.
Dentro de este contexto, la naturaleza sigue siendo hoy en día lo más complejo que conocemos y se transforma en un recurso inagotable de inspiración, imitación y aprendizaje (Estévez, 2014, pp. 8-23).
En este sentido, para el arquitecto británico Michael Pawlyn (1967), existen cuatro principios básicos que una
solución mimética debe desarrollar: primero, reducir el consumo de energía mediante un diseño eficiente;
segundo, poseer una fuente de energía de duración indefinida, abandonando los combustibles fósiles y reemplazándolos por el uso de energías renovables como la energía solar; tercero, desarrollar un proceso de
resiliencia por medio de la generación de un diseño diverso e interconectado, es decir, que posea la capacidad
de un sistema de redes interconectadas y de alto grado de diversidad, capaz de sobrevivir las perturbaciones;
y finalmente cuarto, desarrollar un sistema de recursos no tóxicos y compatibles con el medioambiente, que
recolecte y recicle su propia agua, y que elimine eficientemente sus residuos (2011).
En pocas palabras, una arquitectura de materiales avanzados, que incorpora nanotecnología como respuesta
para sacar partido de sus limitaciones. Una arquitectura genética digital, de pieles maleables, de membranas
semipermeables, transformables, traslúcidas, capaz de transpirar, que coopera con el entorno, que crea un
microclima interno, calentándose en invierno y refrescándose en verano. Una arquitectura desarrollada mediante una tecnología de última generación que obtiene sus materiales de los otros reinos. Una arquitectura
que integra forma, materia y estructura, para producir un diseño autosuficiente y emergente.
Colofón
Entre el 17 de mayo y el 19 de agosto de 2007, el artista británico, Antony Gormley (1950) presentó su obra
Blind Light en la Hayward Gallery en la ciudad de Londres.
Blind Light era su primera gran exposición. Estaba compuesta por una gran caja de cristal sin marco de 8 x 10
metros en cuyo interior una serie de humidificadores ultrasónicos oscilaban para crear una espesa y helada
niebla que, junto con una poderosa luz fluorescente cuatro veces superior a la normal, desmaterializaba los
límites físicos del espacio.
355
Parte V. Conclusiones
Tomando el cuerpo como punto de partida, los visitantes de la galería, inmersos en la niebla y con una reducida
visibilidad, exploraban dificultosamente el interior de la caja, experimentando diferentes sensaciones tales como
desorientación, pánico, ansiedad social o incluso una mayor libertad.
Para Gormley:
“La arquitectura se supone que es la ubicación de la seguridad y la certeza acerca de donde se encuentra. Se
supone que te protege del tiempo, de la oscuridad, de la incertidumbre. BLIND LIGHT socava todo eso.
Ustedes entran en este espacio interior que es el equivalente de estar en la cima de una montaña o en el fondo
del mar… te convierte en la figura inmersa en un terreno sin fin, literalmente el tema de la obra” (2007).
A lo largo de la historia, las exposiciones han sido siempre una de las expresiones significativas para mostras
los grandes avances de la humanidad, un “teatro privilegiado” que permite contemplar la novedosa arquitectura mundial, “…arroja[ndo] tanta luz sobre los mecanismos de representación del poder político y sobre los
instrumentos para la manufactura de la percepción social como el análisis minucioso de muchas obras monumentales y permanentes” (Fernández Galiano, 2010, pp. 21-25).
De manera análoga, hemos desarrollado un recorte de 26 años que hace foco en los sucesos y obras desarrolladas en el marco de exposiciones internacionales de arquitectura que han ofrecido visiones en momentos
específicos. Un análisis crítico que inicia en 1988 con la exposición de Arquitectura Deconstructivista del Museo de Arquitectura Moderna de New York, y finaliza con la 14.ª Bienal de Arquitectura de Venecia de 2014. Un
proceso enmarcado en un gran número de exposiciones creadoras y finalizadoras de tendencias.
Como investigadores, uno de los retos a los que nos podemos enfrentar es intentar escribir la historia de la
arquitectura reciente, interpretando un proceso que aún no ha llegado completamente a su fin, y que nos involucra de manera vital.
En este contexto, para Marina Waisman, la observación y el análisis de un tema contemporáneo, como este,
“…está referido al diario acontecer de la arquitectura; a la identificación de nuevas ideas, a la valoración e
interpretación de nuevas obras o propuestas, al descubrimiento de nuevas tendencias, contribuye[ndo], con su
reflexión, a la toma de conciencia de situaciones” (1993, p. 30). Observadores de una realidad, que nos posibilite “…descubrir en ella hechos arquitectónicos interesantes y llamar la atención del espectador sobre ellos,
suspendiendo momentáneamente el juicio, hasta tanto sea posible construir nuevos parámetros capaces de
develar la estructura significativa de los nuevos fenómenos” (Waisman, 1993, p. 30).
356 Ya que como menciona Giorgio Agamben, la contemporaneidad se inscribe en el presente y lo marca, un devenir historico que no cesa de actuar en éste.
En consecuencia, este libro, no pretende plantear un tema cerrado, muy por el contrario, debe ser tomado como
un punto de apertura. Es un momento de visibilidad de las anomalías, aunque todavia, como es natural, no sea
posible definir un único camino: lo digital ya está consolidado, no es nuevo; lo biológico es lo nuevo que, junto
con un enfoque digital, está reconfigurando y redefiniendo los contenidos y límites de este nuevo paradigma.
Queda claro que este paradigma todavía no se ha conformado completamente. En este proceso, existe una
fragmentación teórica de contenidos, un proceso inestable, fluido, de límites difusos que hacen difícil entender
los alcances de cada anomalía.
Proponiendonos una mirada compleja, reflexiva y crítica sobre el modo de pensar y hacer arquitectura, observamos una hibridación entre lo natural y lo artificial; un entrecruzamiento de diferentes saberes disciplinares,
una contaminación de la teoría arquitectónica, a través de la biología y la tecnología.
Los procesos de investigación morfogenéticos han transformado la naturaleza en un banco de datos, para
crear nuevas formas, nuevos materiales y nuevos modos de fabricación.
Marcelo A. Fraile - Arquitectura biodigital
Cargado de incertidumbre, más que un cuerpo teórico, el nuevo paradigma presenta situaciones y propuestas novedosas: que “…llega[n] como
Fig. 1 Tomando el cuerpo como punto
la niebla, penetran por todos los resquicios de lo establecido y lo reblandecen. Así que hay que dar tiempo para que este fenómeno manifieste
ría, inmersos en la niebla y con una
todo su poder transformador” (Rodríguez De Las Heras, 2016).
Bajo un pensamiento biológico digital, la revolución está dando lugar a
este nuevo paradigma en la arquitectura. El trabajo del arquitecto del siglo XXI consistirá precisamente en encontrar aquellos vínculos que puedan conectarse para generar este nuevo diseño. Pero solo podrá hacerlo, si deja de lado los viejos sistemas convencionales y se abandona a
de partida, los visitantes de la galereducida visibilidad, exploraban dificultosamente el interior de la caja, experimentando diferentes sensaciones
tales como desorientación, pánico,
ansiedad social o incluso una mayor
libertad.
la mirada del nuevo modelo: un mensaje que el arquitecto deberá saber
leer y practicar.
Para Zygmunt Bauman, estamos ante la procrastinación –derivada del
latín–, ‘cras’, ‘mañana’, un mañana vago e indefinido, un futuro por llegar,
un concepto del tiempo “…vivido como peregrinaje, como movimiento
de acercamiento a un blanco” (Bauman, 1999, p. 166).
357
En este contexto, lo que antes eran patos ahora se han transformado en
conejos (Kuhn, 1962, p. 213). En consecuencia, tras la revolución, ha cambiado nuestra forma de ver el mundo. Y aunque todavía quedan muchas
anomalías por explicar y muchos interrogantes por responder, se hace
imposible volver a mirar hoy con los ojos inocentes del paradigma anterior.
Al respecto, conviene recordar el principio metodológico y filosófico
conocido como la “navaja de Ockham”. Este principio dice que: “en
igualdad de condiciones, la explicación más sencilla suele ser la más
probable”. En otras palabras, frente al dilema de dos o más teorías, en
igualdad de resultados, la teoría más simple tiene más probabilidades
de ser la correcta.
Figuras
En virtud de esto, queda claro que los diseñadores estamos trabajando en
un mundo distinto; la génesis de un nuevo paradigma ya ha comenzado.
Fig. 1. Blind Light. http://www.
antonygormley.com/projects/itemview/id/241
Marcelo A. Fraile - Arquitectura biodigital
BIBLIOGRAFÍA GENERAL (CITADA Y CONSULTADAS)
Abad, M. (2013, mayo 3). WikiHouse: un kit para construir tú propia casa. Recuperado 8 de julio de 2013, a partir de
http://www.yorokobu.es/wikihouse/
Ábalos, I. (2001). La buena vida: visita guiada a las casas de la modernidad (7o edición 2007). Barcelona: Gustavo Gili.
Agamben, G., Costa, F., & Ruvituso, M. (2010). Signatura rerum: Sobre el método (2009, 1o edic. en español ed.).
Barcelona: Editorial Anagrama S.A.
Agkathidis, A. (2017). Arquitectura biomórfica. Diseño orgánico y construcción. Barcelona: Promopress.
Aguilar Justo, A. E. (2014, agosto). Un algoritmo basado en la colonia artificial de abejas con búsqueda local para
resolver problemas de optimización con restricciones (Maestria). Universidad Veracruzana, México.
Aguirre, C. (2009). La ‘suave rampa’ de Richard Dawkins. Organización internacional para el avance científico del diseño
inteligente. Recuperado a partir de http://www.oiacdi.org/articulos/La%20Suave%20Rampa.pdf
Alberti, L. B. (1485). De Reaedificatoria (2007.a ed.). Madrid: Editorial Akal.
Aliata, F., & Shmidt, C. (2007). Diccionario de Arquitectura: voces teóricas. Buenos Aires: Nobuko.
Alonso, P. (2009). Post-Digital. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile:
Pontificia Universidad Católica de Chile.
Álvarez, I. (2006). Aproximación al calidoscopio de la Sociedad de la Información: dificultades y posibilidades educativas.
Revista Iberoamericana de Educación, 38(No4).
Antonelli, P., & Myers, W. (2014). Bio Design: Nature + Science + Creativity. London: Thames & Hudson.
Aparicio Guisado, J. M. (2000). El muro. Buenos Aires: Librería Técnica CP67.
Araña, R. (2008). Deconstructivista & Nóiccurtsnoced, Afinidades. En Revista de arte y estética contemporánea. Mérida.
Julio-Diciembre, 2008.
Araya, S. (2009). Diseño Generativo. En MARQ 04. Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile:
Pontificia Universidad Católica de Chile.
Arbelo, M., & Franco, J. (2011, mayo 9). ART TECH MEDIO, Arte y nuevos medios. Recuperado 8 de julio de 2012, a
partir de http://www.cceba.org.ar/v3/ficha.php?id=534
Arenas, L. (2010). Hacia una arquitectura liquida. En Miradas para un cambio de paradigma (Barrera Puigdollers, José;
Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
Aresta, M. (2012). Arquitectura como organismo vivo. En Forma y matemática II: fractales y forma (de Spinadel, Vera W.).
Buenos Aires: Nobuko.
Armstrong, R. (2009, julio). Architecture that repairs itself. Presentado en Ted Talks. Recuperado a partir de https://www.
ted.com/talks/rachel_armstrong_architecture_that_repairs_itself?language=es
Armstrong, R. (2011). How protocells can make ‘stuff’ much more interesting. Architectural Design, (Protocell Architecture,
210).
Armstrong, R., & Spiller, N. (2012). Future Venice. Recuperado a partir de www.gre.ac.uk/ach/research/centres/avatar/
research/fv
Arnau Amo, J. (2008). Palladio 1508- 2008. Una Visión de la Antigüedad. Valencia: General de Ediciones de Arquitectura.
Asimov, I. (1985). El fin de la eternidad. Buenos Aires: Hyspamerica Ediciones.
Asimov, I. (2009). Yo, robot / I, Robot. Buenos Aires: Edhasa.
Baixas, J. I. (2009). Geometrías de producción. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo).
Santiago de Chile: Pontificia Universidad Católica de Chile.
Ballestero, J. (2008). Ser Artificial. Glosario practico para verlo todo de otra manera. Barcelona: fundación caja de
arquitectos.
Barbadilla, A. (2015). Ensayos sobre la ciencia de la Genética. Universitat Autònoma de Barcelona. Recuperado a partir
de http://bioinformatica.uab.es/base/base3.asp?sitio=ensayosgenetica&anar=pgh
Bar-Cohen, Y. (2011). Biomimetics Biologically Inspired Technologies. Austin: The University of Texas at Austin.
Barrera Puigdollers, J. (2010). El trazo como vehículo epistémico, posible, hacia la definición del Plexo simple. En
Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de
Arquitectura.
359
Bibliografía
Barro Ameneiro, S., & Bugarín Diz, A. (2002). Fronteras de la computación. Madrid: Díaz de Santos S.A. Ediciones.
Bauman, Z. (1999). Modernidad líquida (8o edición 2007). Buenos Aires: Fondo de Cultura Económica.
Beesley, P. (2010). Hylozoic ground. Recuperado 27 de julio de 2017, a partir de http://www.hylozoicground.com/Venice/
project/index.html
Belli, G. (2010). Protagosnistas y eventos del Futurismo italiano. En El universo futurista 1909-1936 (Belli, Gabriella).
Buenos Aires: Fundación Proa.
Benevolo, L. (1967). Introducción a la arquitectura. Buenos Aires: Tekne.
Benevolo, L. (1989). Historia de la arquitectura moderna. Barcelona: Gustavo Gili.
Benyus, J. (2009, julio). Biomimicry in action. Presentado en TEDGlobal 2009. Recuperado a partir de https://www.ted.com/talks/
janine_benyus_biomimicry_in_action
Benyus, J. M., & Leal, A. G. (2012). Biomímesis: Innovaciones inspiradas por la naturaleza. Barcelona: Tusquets Editores
S.A.
Bermúdez, J., & Hermanson, R. (1999). Cultura virtual & cultura material: una lectora arquitectónica. Morphia, (2).
Bernardele, O. A. (1994). Del posmodernismo a la deconstrucción. Buenos Aires: Universidad de Palermo, Librería CP67.
Binet Royall, E. (2011, noviembre 30). Posessing the Urpflanze: an Examination of the Nature and Purpose of BiologyDesign Analogy via Biomimetic Practice. The University of Texas at Austin. Recuperado a partir de https://es.scribd.com/
document/77151395/Possesing-the-Urpflanze.
BjarkeIngels. (2010). Yes is more. Barcelona: Taschen.
Bonet Saumench, E., Moret Chesa, J., & Solanellasbertran, G. (2009). Rendering para arquitectos. Barcelona: Parramón
ediciones S.A.
Bonner, J. (1961). Introducción. En Sobre el crecimiento y la forma (2003.a ed.). Madrid: Akal.
Bosco, R. (2007, diciembre 17). La oreja en el brazo. El país. Recuperado a partir de http://elpais.com/diario/2007/12/17/
catalunya/1197857250_850215.html
Bosi, G. (2012). El devenir orgánico de Sierpinski. En Forma y matemática II: fractales y forma. Buenos Aires: Nobuko.
Botella, L. (1994). El Ser Humano Como Constructor de Conocimiento: El Desarrollo de las Teorías Científicas y las
Teorías Personales. FPCEE Blanquerna. Recuperado a partir de https://www.researchgate.net/publication/238767647_
El_ser_humano_como_constructor_de_conocimiento_el_desarrollo_de_las_teorias_cientificas_y_las_teorias_
personales
Bratton, B. (2002, mayo 25). The premise of recombinant architecture, One. The culture Industry, SCI_Arc and UCLA.
Recuperado a partir de https://noemalab.eu/wp-content/uploads/2011/08/bratton_recomb_arch.pdf
Broadbent, G. (1974). Diseño arquitectónico. Arquitectura y Ciencias Humanas (1976 edición). Barcelona: Gustavo Gili.
Broadbent, G. (1984). El lenguaje de la arquitectura: un análisis semiótico. México DF: Limusa.
Bucci, F., Mulazzani, M. (2000). Luigi Moretti: obras y escritos. New York: Princeton Architectural Press.
Burry, M. (2003). Between intuition and Process: Parametric Design and Rapid Prototyping. En Architecture in the Digital
360 Age: Design and Manufacturing (Kolarevic, Branco). New York: Branko Kolarevic edic.
Burry, M. (2007). Configuración de la escena. En Gaudí Unseen: Completing the Sagrada Familia. Berlín: Mark Burry.
Burry, J., Burry, M. (2010). Las nuevas matematicas de arquitectura. Londres: Thames and Hudson.
Bustos, G. (2006). Lo ‘Glocal’ en la Tecnología digital + S3DI y el asunto de la percepción en los procesos creativos de
diseño arquitectónico. Orbis. Revista Científica Ciencias Humanas, 2(5), 5-51.
Caba, J. (2016). El emprendedor es el artesano del siglo XXI. En Emprenderalia magazine, (Sánchez Lemus, Francisco
Javier). Barcelona: emprenderalia.com. Recuperado a partir de https://www.emprenderalia.com/el-emprendedor-es-elartesano-del-siglo-21
Cache, B. (2009). ¿Después de lo Paramétrico? En Arquitecturas Genéticas III (Estévez, Alberto). Barcelona: Editorial
Lumen, ESARQ, UIC.
Caldas Caldas, D. A. (2008, septiembre 1). El relativismo en la obra de Thomas Kuhn. Pontificia Universidad Javeriana,
Facultad de Filosofía, Bogotá.
Calduch, J. (2001). Temas de composición arquitectónica. Forma y percepción. Alicante: Imprenta Gamma. Recuperado
a partir de https://www.editorial-club-universitario.es/pdf/263.pdf
Callebaut, V. (2014). Fertile Cities. Hong Kong: Design Media Publishing Limited.
Calvino, Í. (2012). Seis propuestas para el próximo milenio. Madrid: Siruela.
Marcelo A. Fraile - Arquitectura biodigital
Campos Muñoz, D. (2011). Lindenmayer: fractales, autómatas celulares y aplicaciones. En Departamento de Aplicación
de Microcomputadoras, Instituto de Ciencias, N. Universidad Autónoma de Puebla. Pueblo. Recuperado a partir de http://
delta.cs.cinvestav.mx/~mcintosh/cellularautomata/Summer_Research_files/Arti_Ver_Inv_2011_DCM.pdf
Capra, F. (1983). The Turning Point: Science, Society, and the Rising Culture. New York: Fontana.
Carpo, M. (2009). Revolución 2.0. El fin de la autoría humanista. Arquitectura Viva, Banda ancha, (124), 19-25.
Carrillo, C. (2012). Matemáticas: la gramática de la naturaleza. El lenguaje de la complejidad y los fenómenos no
lineales. México: Siglo XXI Editores.
Casacuberta, D. (2008). Reclaim the back bone: repensar internet como espacio público. En Arte y arquitectura digital:
net. art y universos virtuales. Barcelona: Grupo de Investigación Arte, Arquitectura y Sociedad Digital.
Casanovas, A. (2008). Del cine al móvil: transformaciones contemporáneas de la imagen-movimiento. En Net. Art y
Universos Virtuales (A.A. VV.). Barcelona: UIC.
Castano Carreño, D. (2009). Dinamismo científico y la enseñanza de las ciencias desde la visión de Thomas S. Kuhn.
Colombia Revista Legein De Estudiantes De Filosofía, 9(3), 33-60.
Castells, M. (1996a). La era de la información económica, sociedad y cultura. Madrid: Alianza editorial.
Castells, M. (1996b). The Rise of the Network Society. Massachussetts: Ed. Blackwell.
Castro, E. (2015). Cuestiones de método: la problemática del ejemplo en Foucault y Agamben. Res Publica. Revista de
Historia de las Ideas Políticas, (marzo 2015). Recuperado a partir de www.http://revistas.ucm.es/index.php/RPUB/article/
view/47875
Castro Pinzón, E., & Troncoso, J. L. (2005). La virtualización del cuerpo a través del «Cutting» y Body Art Perfomance.
Athenea Digital, (7). Recuperado a partir de http://atheneadigital.net/issue/view/n7
Cerezo, M. Á. (1987). La psicología científica desde el análisis Kuhniano y Postkuhniano. Revista de Historia de la
Psicología, 8(3), 237-253.
Cerrolaza, M., & Annicchiarico, W. (1996). Algoritmos de optimización estructural basados en simulación genetica.
Caracas: Universidad Central de Venezuela.
Chalcraft, E. (2013, mayo 7). First 3D-printed gun fired. Recuperado 8 de julio de 2013, a partir de www.dezeen.
com/2013/05/07/first-3d-printed-gun-fired
Chatfield, T. (2012). 50 cosas que hay que saber sobre mundo digital. Ariel.
Chiarella, M., Gatica, B., García, L., Castro, C., Barría, P., & Silva, P. (2011). Composiciones Plegadas. Espacios,
Superficies y Componentes. Arqo30. Recuperado a partir de http://www.arq.utfsm.cl/talleres/2011-01-taller-3/wp-content/
blogs.dir/48/files_mf/1302652452TPComposicionesPlegadasUTFSMChiarella.pdf
Chu, K. (2005). Metafísica de la arquitectura genética y la computación. En Arquitecturas genéticas II: medios digitales &
formas orgánicas (Alberto T. Estévez). Barcelona: Consortium Book Sales & Dist.
Chueca Goitia, F. (1979). Historia de la arquitectura occidental. V. El siglo XX de la revolución Industrial al racionalismo.
Madrid: Editorial Dossat.
Clear, N. (2011). Avatar and the politics of protocell architecture. Architectural Design, (Protocell Architecture, no 210), 122127.
361
Collins, P. (1970). Los Ideales de la Arquitectura Moderna. Su Evolución (1750-1950). Barcelona: Gustavo Gili.
Coloma Picó, E. (2008). Introducción a la Tecnología BIM. Barcelona: Escola Tècnica Superior d’Arquitectura de
Barcelona, Universitat Politècnica de Catalunya.
Conti, F. (1993). Como reconocer el arte del Renacimiento. Barcelona: Edunsa.
Cook, T., & Reichardt, C. (1986). Métodos Cualitativos y Cuantitativos en la Investigación Evaluativa. Madrid: Morata.
Corona Martínez, A. (1998). Ensayo sobre el proyecto. Buenos Aires: Nobuko Sa.
Cortassa, C. (2013). Thomas Kuhn: ¿El último de los clásicos o el primer revolucionario? A 50 años de La Estructura
de las Revoluciones Científicas. Revista CTS, 8(22). Recuperado a partir de http://www.revistacts.net/files/Volumen%20
8%20-%20N%FAmero%2022/Cortassa_EDITADO.pdf
Cosme Muñoz, A. (2008). El proyecto de arquitectura: concepto, proceso y representación. Barcelona: Editorial Reverté.
Costa, M. (2009). La ‘Bio-Lógica’ y los Paradigmas de la Era Digital. En Arquitecturas genéticas III: nuevas técnicas
biológicas y digitales (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC.
Cotofleac, V. (2009). Kant. Arquitectura y mimesis. Revista de Filosofía A Parte Rei, (63).
Cotta, C. (2007). Una visión de los algoritmos meméticos. Dept. Lenguajes y Ciencias de la Computación, ETSI,
Informática, University of Málaga, Campus de Teatinos, Málaga.
Cowin, S., & Doty, S. (2007). Tissue Mechanics. New York: Springer New York.
Bibliografía
Cronin, L. (2011). Defining new architectural design principles with ‘living’ inorganic materials. Architectural Design:
Protocell Architecture, (210), 34-43.
Cruz, D. (2013). Tecnologías aplicadas. Santiago de Chile: Escuela de Artes Visuales Universidad Uniacc.
Cruz, M., & Pike, S. (2008). Introduction. Neoplasmatic Design. Architectural Design, (78).
Cuerda, I., & García Moreno, B. (2013). El análisis de ciclo de vida. Life-Cycle Assessment in Architecture. Arquitectura
Viva, (149).
Cuito, A. (2001). Guggenheim. Guggenheim. New York, Venice, Bilbao, Berlín. Barcelona: Kliczkowsky.
Curtis, W. (2003). Ensayo La Naturaleza del Artificio. Una conversación con Jacques Herzog. El Croquis, (109 – 110).
Curtis, W. (2012). La arquitectura moderna desde 1900. New York: Editorial Phaidon.
Curtis, William J. R. (1998). Lo único y lo universal: Una perspectiva de historiador sobre arquitectura reciente. El Croquis,
… Towards the end of the 20 th Century, No 88/89(Madrid).
Darnell, L. (2007). Matrix: Simulating the world Part I - Particle models. +Plus Magazine. Recuperado a partir de https://
plus.maths.org/content/matrix-simulating-world-part-i-particle-models
Dartnell, L. (2012). Matrix: Simulating the world Part II: cellular autómata. +Plus Magazine. Recuperado a partir de http://
plus.maths.org/content/matrix-simulating-world-part-ii-cellular-automata
Dawkins, R. (1988). El relojero ciego. Barcelona: Editorial Labor.
Dawkins, R. (1993). El gen egoísta: las bases biológicas de nuestra conducta. Barcelona: Salvat.
De Garrido, L. (2012). Design practice of the new architectural paradigm. Oviedo: Síntesis arquitectura.
De Kestelier, X. (2013, enero 31). Foster + Partners to 3D print buildings on the moon Foster + Partners Works With
European Space Agency To 3D Print Structures On The Moon [Foster + Partners]. Recuperado 8 de julio de 2013, a partir
de http://www.fosterandpartners.com/news/archive/2013/01/foster-partners-works-with-european-space-agency-to-3dprint-structures-on-the-moon/
De Landa, M. (2002). Deleuze and the Use of the Genetic Algorithm in Architecture. En Designing for a Digital World
(Leach, Neil, pp. 117-120). London: John Willey & Soon.
De Landa, M. (2003). Deleuze y el Algoritmo Genético de la arquitectura. En Filogénesis: las especies de Foreign Office
Architects (Foreign Office Architects, Sanford Kwinter). Barcelona: Actar/ MACBA.
de Saussure, F., Bally, C., Sechehaye, A., & Riedlinger, A. (2005). Curso de lingüística general. Buenos Aires: Losada.
De Souza, M. das G. (2007). Paradigmas de las ciencias humanas e ideología. En El espacio público de las ciencias
sociales y humanas: el papel político y los paradigmas : estudio comparativo Francia-América Latina : Jornadas
Internacionales, 2006. Buenos Aires: Editores Del Puerto.
de Spinadel, V. W. (2012). Introducción. En Forma y matematica II: fractales y forma (de Spinadel, Vera W.). Buenos Aires:
Ediciones Fadu.
Deleuze, G. (1989). El pliegue. Barcelona: Paidós.
362
Dery, M. (2008). Soft House: Home Grown. artbyte.The magazine of digital art & culture. Recuperado a partir de www.artbyte.
com/mag/nov_dec_00 lynn_content.html
Di Tada, E. (2002). Algoritmos Genéticos. Revista Ciencia y Tecnología. Universidad de Palermo, (2), 15-40.
Díaz Moreno, C., & García Grinda, E. (2003). Complejidad y consistencia. Una conversación con Farshid Moussavi y
Alejandro Zaera. El Croquis, (115-116).
Díaz Moreno, C., & Garcia Grinda, E. (2009). Atmosfera, material del jardinero digital. En Naturaleza y artificio. El ideal
pintoresco en la arquitectura y el paisaje contemporáneo (Ábalos, Iñaki). Barcelona: Gustavo Gili.
Díaz Segura, Alfonso. (2011). El concepto de prefabricación en Le Corbusier. Madrid: CEU Ediciones.
Diez Del Corral, J. (2005). Manual de crítica de la arquitectura. Madrid: Biblioteca Nueva.
Doberti, R. (1996). El decir de la forma. Recuperado 1 de noviembre de 2017, a partir de http://www.asofil.org/web/
paginas/pdf/DOBERTI/CANOA/Doberti%20-%20El%20decir%20de%20la%20forma.pdf
Doberti, R. (2008). Espacialidades. Buenos Aires: Infinito.
Dollens, D. (2003). Hacia una arquitectura genética. En Arquitecturas Genéticas (Alberto T. Estévez). Barcelona: Escola
Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya.
Dollens, D. (2006). Architecture &Biomimetics series #1. Nuevo México: SITES BOOKS.
Dollens, D. (2009). Naturaleza Digital, eTREES y Arquitectura Generativa. En Arquitecturas Genéticas III (Estévez,
Alberto). Barcelona: Editorial Lumen, ESARQ, UIC.
Dollens, D., & Planella, A. (2002). De lo digital a lo analógico. Barcelona: Gustavo Gili.
Marcelo A. Fraile - Arquitectura biodigital
Douglis, E. (2005). Auto-Braids. En Arquitecturas Genéticas II (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ,
UIC.
Dreyfus, H. L., & Rabonow, P. (2010). Michel Foucault, Beyond Structuralism and Hermeneutics. With and Afterword
by and an Interview with Michel Foucault. En Signatura rerum: Sobre el método (2009-1o edición en español ed.).
Barcelona: Editorial Anagrama S.A.
Duarte Muñoz, A., Pantrigo Fernández, J. J., & Gallego Carrillo, M. (2007). Metaheurísticas. Madrid: Editorial Dykinson,
S.L.
Dunn, N., & Casasnovas, C. B. (2012). Proyecto y construcción digital en arquitectura. Barcelona: Art Blume, S.L.
Efron, A., & Herold, J. (1980). Root Metaphor: The Live Thought of Stephen C. Pepper. New York: Paunch.
Eisenman, P. (1984). The End of the Classical. Perspecta, (21), 154-172.
Eisenman, P., & Glaister, C. (1988). Biocentro para la Universidad de Frankfurt. Arquitectura. Revista del Colegio Oficial
de Arquitectos de Madrid, (270).
Espasa Calpes. (2001). Diccionario Espasa Calpe. Recuperado 23 de agosto de 2017, a partir de http://diccionarios.
elmundo.es/diccionarios/cgi/diccionario/lee_diccionario.html?busca=maquina&diccionario=1&submit=Buscar
Espina, J., & Rincón, F. (2007). Simulación como herramientas de planificación urbana: Plaza Baralt. SIGRADI México.
Recuperado a partir de http://papers.cumincad.org/data/works/att/sigradi2007_af107.content.pdf
Estalella, A. (2015). Colectivos de arquitectura: otra sensibilidad urbana. Prototyping. Recuperado a partir de http://www.
prototyping.es/destacado/colectivos-de-arquitectura-otra-sensibilidad-urbana
Estévez, A. (1996). De Gaudí a Calatrava: sobre el bando perdedor. D’ Art: Revista del Departament d’Historia de l’Arte,
(22), 281-296.
Estévez, A. (2003a). Arquitecturas Genéticas. Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat Internacional
de Catalunya.
Estévez, A. (2003b). Arquitecturas Genéticas. El nuevo proyectar ecológico-medioambiental y el nuevo proyectar
cibernético-digital. En Arquitecturas Genéticas. Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat
Internacional de Catalunya.
Estévez, A. (2004). La fascinación de la velocidad en la arquitectura y el diseño. En BCN Speed and friction. The
Catalunya circuit city. Barcelona: Lumen, Inc./SITES Books.
Estévez, A. (2005a). Arquitectura Biomorfica. En Arquitecturas genéticas II: medios digitales & formas orgánicas
(Estévez, Alberto). Barcelona: Consortium Book Sales & Dist.
Estévez, A. (2005b). Proyecto Barcelona Genética. Metalocus, (017).
Estévez, A. (2006). Arquitectura genética (Proyecto Barcelona Genética): ‘La casa perfecta’, o una casa no es una caja….
En Arte y Arquitectura en la Sociedad Digital: Ciudad actual, ciudad genética, Universitat de Barcelona, Barcelona.
Barcelona: Universitat de Barcelona.
Estévez, A. (2008, diciembre). Arquitectura biodigital. SIGRADI Cuba. Recuperado a partir de http://cumincades.scix.net/
data/works/att/sigradi2008_172.content.pdf
Estévez, A. (2009). Arquitecturas genéticas III: nuevas técnicas biológicas y digitales. Barcelona: Editorial Lumen,
ESARQ, UIC.
Estévez, A. (2014a). Aprendiendo de la naturaleza. En 2nd International Conference of Biodigital Architecture & Genetics
(Estévez, Alberto, pp. 8-23). Barcelona: ESARQ, UIC.
Estévez, A. (2014b). Concretando sobre la arquitectura genética. Barcelona: UIC.
Estévez, A. T. (2005). Arquitecturas genéticas II: medios digitales & formas orgánicas. Barcelona: Consortium Book Sales
& Dist.
Etherington, R. (2013, marzo 13). Wiki Weapon firm launches 3D printing Pirate Bay. Recuperado 8 de julio de 2013, a
partir de https://www.dezeen.com/2013/03/13/defcad-3d-printing-pirate-bay-launched-defense-distributed-cody-wilsonsxsw/
Evalle, V. (2006). Señor: ¿Usted habla de informática? En ¿Realidad virtual? (Zátonyi, Marta). Buenos Aires: Nobuko.
Farin, G. (2002). A history of curves and surfaces in CAGD. En Handbook of Computer Aided Geometric Design (G.
Farin, J. Hoschek and M.-S. Kim). Amsterdam: Elsevier.
Farson, R. (1995). Metadiseño. Hacia una redefinición del diseño. Revista Domus, (772).
Ferguson, M., & de Casso, P. (1994). La conspiración de acuario: transformaciones personales y sociales en este fin de
siglo (2007.a ed.). Barcelona: Kairós.
Fernández Galiano, L. (1998). Placeres del pliegue. La ultima vanguardia holandesa. Arquitectura Viva, (69).
363
Bibliografía
Fernández Galiano, L. (1999a). 1994. Tiempos de mala memoria. El fin de siglo y sus signos. Arquitectura Viva, (La década
digital. Una cronica de los noventa no 69).
Fernández Galiano, L. (1999b). 1996. Formas de lo informe. Arte y arquitectura bajo el signo de Bataille. Arquitectura
Viva, (69), 82-83.
Fernández Galiano, L. (1999c). Hosanna Guggenheim. Un exorcismo para Bilbao. Arquitectura Viva, (“La década Digital.
Una crónica de los noventa” 69).
Fernández Galiano, L. (1999d). Split-screen. Arquitectura Viva, La década digital, (69), 17-23.
Fernández Galiano, L. (1999e). Un pulpo de acero. Guggenheim Bilbao: arte de la negociación. Arquitectura Viva, (“La
década Digital. Una crónica de los noventa” 69), 74.
Fernández Galiano, L. (2010). Cero más diez. Un balance del 11 de septiembre. Arquitectura Viva, (129).
Fernández Galiano, L. (2010). España y su fantasma. Representación e identidad en las exposiciones universales.
Arquitectura Viva, (129).
Fernández Galiano, L. (2012). Colectivos necesarios. Arquitectura Viva, (145), 3.
Fernández, M. (2012). Estudio e integración de sistemas de bajo coste para el diseño digital y el prototipado rápido.
Valencia: Universidad Politécnica de Valencia.
Fernández-Galiano, L. (2009). El diluvio digital. Arquitectura Viva, (124), 3.
Ferri, S. (1997). La concepción artística de los griegos. En Antología Critica (Patteta, Luciano). Madrid: Celeste Ediciones.
Fiszbein, A., Godoy Herz, M., & Aboud, M. (2008). Algoritmos genéticos. Facultad de Ciencias exactas. Universidad
de Buenos Aires. Recuperado a partir de http://users.df.uba.ar/gsolovey/fisica2/tp_especiales/Algoritmos%20
gen%C3%A9ticos%20-%20Aboud,Fiszbein,GodoyHerz.pdf
Fraile, M. (2012, septiembre). El nuevo paradigma contemporáneo. Del Diseño Paramétrico a la Morfogénesis Digital.
XXVI Jornadas de Investigación y VIII Encuentro Regional SI + PI. Recuperado a partir de http://www.academia.
edu/2146376/El_nuevo_paradigma_contempor%C3%A1neo._Del_dise%C3%B1o_param%C3%A9trico_a_la_
morfog%C3%A9nesis_digital
Fraile, M., Minafro, M., & Tatangeli, D. (2014, septiembre). Modelos paramétricos digitales. Una herramienta proyectual
para la generación de una arquitectura de Alta Perfomance. SI. FADU. UBA. Recuperado a partir de http://www.academia.
edu/11314001/MODELOS_PARAM%C3%89TRICOS_DIGITALES._UNA_HERRAMIENTA_PROYECTUAL_para_la_
GENERACI%C3%93N_DE_UNA_ARQUITECTURA_DE_ALTA_PERFOMANCE_
Fraile, M., Piantanida, S., & Minafro, M. (2016, septiembre). Arquitectura Siglo XXI: El uso de modelos paramétricos
digitales para la ideación del proyecto contemporáneo. SI. FADU. UBA. Recuperado a partir de http://www.academia.
edu/29011292/ARQUITECTURA_SIGLO_XXI_EL_USO_DE_MODELOS_PARAM%C3%89TRICOS_DIGITALES_PARA_
LA_IDEACI%C3%93N_DEL_PROYECTO_CONTEMPOR%C3%81NEO
Frampton, kenneth. (1992). Historia critica de la arquitectura moderna. Barcelona: Gustavo Gili.
Frazer, J. (1995). An Evolutionary Architecture. London: Architectural Association.
364
Freiberger, M. (2007). Perfect buildings: the maths of modern architecture. +Plus Magazine. Recuperado a partir de
https://plus.maths.org/content/perfect-buildings-maths-modern-architecture
García, M. (2010). Arquitectura, naturaleza, representación. En Miradas para un cambio de paradigma (Barrera
Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
García Melero, J. E. (2012). Literatura española sobre artes plásticas / 1: Bibliografía aparecida en España entre los
siglos XVI y XVIII, Volumen 1 de Literatura española sobre artes plásticas / 1.
García Moreno, B. (2005). La ciudad de los deseos. Universidad Nacional de Colombia.
García Moreno, B. (2006). Fuentes bibliográficas provenientes de otras disciplinas en indagaciones sobre arquitectura y
lugar. En Seminario fuentes no convencionales: escritos de profesores”, Arte, Documento de Historia y teoría. Textos 15
(pp. 31-39). Bogotá: Universidad Nacional de Colombia.
García Moreno, B. (2013). Las ciudades, las instituciones y los sujetos de deseo. Una propuesta para el estudio de la
ciudad. Seminario Doctorado. FADU. UBA.
García Núñez, S. (2016). La maqueta instrumental: Cambios de escala hacia la experimentación tectónica, espacial y
formal. Escuela Técnica Superior de Arquitectura, Universidad Politécnica de Madrid.
Garcimartin, M. (2014, septiembre 2). La impresión 3D nos convertirá de nuevo en artesanos. TED 2014, Vancouver.
Recuperado a partir de http://www.media-tics.com/noticia/4525/tecnologias-emergentes/3-la-impresion-3d-nosconvertira-de-nuevo-en-artesanos.html
Gardinetti, M. (2013). Le Corbusier, Villa en Rambouillet. Tecne, (386). Recuperado a partir de www.tecnne.com
Garrido de, L. (2012). La práctica proyectual del nuevo paradigma en arquitectura. Teoría, diseño y procesos constructivos.
Oviedo: Síntesis Arquitectura.
Marcelo A. Fraile - Arquitectura biodigital
Gerber, D., & Shiordia López, R. (2013). Context-Aware. Multi-Agent Systems. Negotiating Intensive Fields. University of
Southern California.
Giedion, S. (1941). Space, Time and Architecture: The Growth of a New Tradition. Cambridge: Harvard University Press.
Giedion, S. (1997). La monumentalidad en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid:
Ediciones Celeste.
Gleick, J. (2012). Caos. La creación de una ciencia. Barcelona: Editorial Crítica.
Gombrich, E. H. (2002). Arte e ilusión: estudio sobre la psicología de la representación pictórica (1979.a ed.). Barcelona:
Gustavo Gili.
Gómez, M. L. (2008). Ciberespacio y tiempo real: lo virtual más allá de la pantalla. En Arquitectura digital, Net. Art y Universos
Virtuales (Autores Varios). Barcelona: UIC.
González Cobelo, J. L. (2012). La máscara y el vértigo. El Croquis, (57).
González, F. (2005). ¿Qué es un paradigma? Análisis teórico, conceptual Y Psicolingüístico del término. Revista:
Investigación y Postgrado, (20). Recuperado a partir de Revista: Investigación y Postgrado.
González González, S. (1985a). La escala. Cuadernos de Arquitectura Escala, (10).
González González, S. (1985b). La medida. Cuadernos de Arquitectura Escala, (11).
González González, S. (1988). La belleza. Cuadernos de Arquitectura Escala, (15).
Gonzalez Pereda, J. (2012). Conciencia. De la ciencia a la conciencia. Madrid: Bubok Publishing.
Gormley, A. (2007). www.antonygormley.com/projects/item-view/id/241. Recuperado 12 de noviembre de 2017, a partir de
www.antonygormley.com/projects/item-view/id/241
Gould, S. J. (1961). Prefacio. En Sobre el crecimiento y la forma (2003.a ed.). Madrid: Akal.
Gramazio, F., & Kohler, M. (2006). Fassade Weingut Gantenbein, Fläsch, Schweiz. Recuperado 26 de julio de 2017, a
partir de http://www.gramaziokohler.com/web/d/bauten/52.html
Gramazio, F., & Kohler, M. (2011). Flight Assembled Architecture. Recuperado 26 de julio de 2017, a partir de http://www.
gramaziokohler.com/web/d/installationen/209.html
Granados Majarrés, M. (2012). Fractus. De fractales y Sistemas-L (Spinadel, Vera W. de). Buenos Aires: Nobuko.
Grigoriadou, M. (2016). El imaginario en la génesis del proyecto arquitectónico. Buenos Aires: Diseño.
Guba, E., & Lincoln, Y. (2002). Paradigmas en competencia en la investigación cualitativa. En Por los rincones. Antología
de métodos cualitativos en la investigación social (enman, Catalina, Haro, Jesús (comps.), pp. 113-145). Sonora: El
Colegio de Sonora. Hermosillo.
Gubern, R. (1996). Del bisonte a la realidad virtual: la escena y el laberinto. Barcelona: Anagrama.
Guerrero Conde, H. E. (2010). La culpa es del programmer versión 1.0. Bogotá: Compar.
Guínzburg, M. (1924). Le style et l’Epoque. Problémes de l’Architecture Moderne. Llège y Bruxelles: Pierre Mardaga Edit.
Hacking, I. (2012). 50 años de La estructura. La Gaceta del Fondo de Cultura Económica, (501). Recuperado a partir de
https://www.fondodeculturaeconomica.com/subdirectorios_site/gacetas/sep_2012.pdf
Hadid, Z. (2004). Forms of indetermination / Landscape as a plan. En El croquis nº52+73+103. 1983-2004.
Hagan, S. (2008). Digitalia: Architecture and the Digital, the Environmental and the Avant-garde. London: Routledge.
Hanczyc, M. (2011, mayo). The line between life and not life. Presentado en Ted Talks, TED Salon London. Recuperado a
partir de https://www.ted.com/talks/martin_hanczyc_the_line_between_life_and_not_life?language=es
Hautecoeur, L. (1997). Blondel . Perrault: La «querelle des anciens et des modernes» (1660-1680. En Historia de la
Arquitectura. Antologia Critica (Patteta, Luciano). Madrid: Celeste Ediciones.
Hayek, N. (2006). Una biografía de René Thom ilustradas con comentarios sobre su vida y su obra científica.
Revista digital Matematicalia, 2(4). Recuperado a partir de http://www.matematicalia.net/index.php?option=com_
content&task=view&id=289&Itemid=186
Heatherwick, T. (2009). Catedral de semillas. Pabellón del Reino Unido. Arquitectura Viva, (129).
Henderson, M. (2011). 50 cosas que hay que saber sobre genética. Buenos Aires: Ariel.
Hensel, M., Menges, A., & Weinstock, M. (2010). Emergent technologies and design: toward a biological paradigm for
architecture. New York: Routledge.
Hereu, P., Montaner, J. M., & Oliveras, J. (1999). Textos de arquitectura de la modernidad. Madrid: Editorial Nerea SA.
Herrera, L. (2003, septiembre 23). La historia del Blob [Página personal]. Recuperado 14 de febrero de 2017, a partir de
http://leus.epublish.cl/articles/epublish_LosBlobs.html
365
Bibliografía
Hight, C., & Perry, C. (2006). Introduction: Collective Intelligence in Design. Architectural Design, (183).
Hobsbawm, E. (1998). Historia del siglo XX, 1914-1991. Buenos Aires: Crítica.
Howarth, D. (2013, abril 24). Everybody could have their body scanned and order clothes that fit perfectly. Recuperado 8
de julio de 2013, a partir de http://www.dezeen.com/2013/04/24/iris-van-herpen-interview/
Hwang, I. (2007). Verbs Natures. Barcelona: Editorial Actar.
Ibelings, H. (1998). Supermodernismo. Arquitectura en la era de la globalización. Barcelona: Editorial Gustavo Gili.
Iglesias Zoido, J. C. (1997). Paradigma y entimema: El ejemplo histórico en los discursos deliberativos de Tucídides.
Emérita, Tomo 65 (Fascículo 1).
Ingels, B. (2009). Yes is More: An Archicomic on Architectural Evolution. Barcelona: Taschen.
Ito, T. (2009). Tarzanes en el bosque de los medios. En Naturaleza y artificio. El ideal pintoresco en la arquitectura y el
paisaje contemporáneo (Ábalos, Iñaki). Barcelona: Gustavo Gili.
Ito, T. (2014). Toyo Ito. Imaginería y materialización. En Toyo Ito. Imaginería y materialización (Lerner, Federico). Buenos
Aires: Diseño.
Iwamoto, L. (2009). Digital Fabrications. Architectural and material techniques. New York: Princenton Architectural Press.
Iwamotto, L. (2011). Line Array. Protocells as Dynamic Structure. AD Protocell Architecture, 81(2), 112-121.
Jarzombek, M. (2009). The state of theory. En Architecture & Theory. Production and reflection. (King, L.). Hamburg:
Junius Verlag GmbH.
Jencks, C. (1975). Arquitectura 2000: predicciones y métodos. Barcelona: Blume.
Jencks, C. (1984). El signo arquitectónico. En El lenguaje de la arquitectura: un análisis semiótico (Broadbent, Geoffrey).
México: Limusa.
Jencks, C. (2000). The Century is Over, Evolutionary Tree of Twentieth-Century Architecture. Architectural Review.
Jencks, C., & Kropf, K. (2006). The Volcano and the Tablet. En Theories and Manifestoes of Contemporary Architecture
(Jencks, Charles, Kropf, Karl, pp. 2-11). Chichester: Wiley.
Jencks, C., López-Manzanares, F. V., Chover, J. L. B., Navarro, F. A., & Arquitectura, U. P. de V. E. T. S. de. (2004). El nuevo
paradigma en la arquitectura contemporánea. Ediciones Generales de la Construcción.
Johansson, I. (1978a). A Critique of Karl Popper’s Methodology. The British Journal for the Philosophy of Science, 29(2),
201-204.
Johnson, P., & Wigley, M. (1988). Deconstructivist Architecture (Wigley Mark). Barcelona: Editorial Gustavo Gili.
Johnson, S. (2001). Emergence The connected lives of ants, Brain, Cities, and Sotware. New York: Ed. Scribner.
Joosen, G. (s. f.). El control es la clave. En BCN Speed and friction. The Catalunya circuit city (Oosterhuis, Kas; Lénard,
Ilona, Estévez, Alberto). Barcelona: ESARQ.
Ju, A. (2013, febrero 20). Bioengineers, physicians 3-D print ears that look, act real. Recuperado 25 de mayo de 2015, a
partir de http://news.cornell.edu/stories/2013/02/bioengineers-physicians-3-d-print-ears-look-act-real
o
366 Jullier, L. (2004). La imagen digital: de la tecnología a la estética (1 Edición en francés 1998). Buenos Aires: La Marca.
Kalwill, M. (2008). La idea del metadiseño y la necesidad de un nuevo enfoque. Abre el Ojo, Revista del IED Madrid, (9),
130-132.
Khan, O. (2011). An architectural chemistry. Architectural Design, (Protocell Architecture, no 210).
Khoshnevis, B., & Leach, N. (2009). Contour Crafting. Una revolución en la construcción con hormigón. En Arquitecturas
Genéticas III (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC.
Kipnis, J. (1997). Una conversación con Jacques Herzog. El Croquis, (El Croquis, Herzog& de Meuron, 1993-1997, No 84).
Kolarevic, B. (2003a). Architecture in the Digital Age: Design and Manufacturing. New York: Branko Kolarevic edic.
Kolarevic, B. (2003b). Digital Morphogenesis. En Architecture in the Digital Age: Design and Manufacturing. New
York: Branko Kolarevic edic. Kondo, S., & Miura, T. (2010). Reaction-Diffusion Model as a Framework for Understanding
Biological Pattern Formation, Review. Science, (329), 1616-1620.
Koolhaas, R. (2013, enero 25). Fundamentals. Recuperado a partir de http://www.domusweb.it/ es/noticias/2013/01/25/
fundamentals-rem-koolhaas-presenta-su-biennale.html
Kottas, D. (2013). Arquitectura Digital. Nuevas Aplicaciones. Barcelona: Links Books.
Koza, J. (2007). Genetic Programming. On the programming of computers by means of natural selection. Cambridge: The
MIT Press.
Krauel, J. (2010). Arquitectura Digital: Innovación y Diseño. Barcelona: Editorial Links.
Marcelo A. Fraile - Arquitectura biodigital
Kuhn, T. (1962). La estructura de las revoluciones científicas (2006 tercera edic. en español). México: Fondo de la Cultura
Económica.
Kuhn, T. (1982). XIII: Objetividad, Juicios de Valor y elección de teoría. En The Essential Tension: Selected Studies in
Scientific Tradition and Change. México: Fondo de la Cultura Económica.
La Ferla, J. (2004). Artes audiovisuales: La cuestión de lo digital sobre el Hipertexto ´validez around the world´. En
¿Realidad virtual? (Zátonyi, Marta). Buenos Aires: Nobuko.
Lacalle, C. (2010). Flâneurs v.21 (o las personas que se mueven en las arquitecturas). En Miradas para un cambio de
paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
Lahoz-Beltra, R. (2004). Bioinformática: Simulación, vida artificial e inteligencia artificial. Madrid: Editorial Díaz de
Santos, S.A.
Lahoz-Beltra, R. (2013). Alan Turing y los orígenes de la investigación disciplinar. Encuentros Multidisciplinares, 15(4),
28-35.
Lakatos, I., & Musgrave, A. (1975). La crítica y el desarrollo del conocimiento: actas del Coloquio Internacional de
Filosofía de la Ciencia celebrado en Londres en 1965. México: Grijalbo.
Langton, C. (1991). Artificial Life. En Complex Systems, Santa Fe Institute Studies in the Science of Complexity (pp. 189241). California: Adisson Wesley.
Larousse. (1999). Diccionario El pequeño Larousse ilustrado. Barcelona: Larousse.
Latour, B. (2007). Nunca fuimos modernos: ensayo de antropología simétrica. Buenos Aires: Siglo XXI Editores Argentina
S.A.
Lawson, B. (1999). “Fake” and “Real” creativity Using Computer Aided Design: Some Lessons from herman Hertzberger.
New York: ACM Press.
Lawson, T. (2014). Art Discoverer. Recuperado 12 de noviembre de 2017, a partir de http://www.artdiscover.com/es/
artistas/ted-lawson-id2622
Le Corbusier. (1964). Hacia una arquitectura (2006.a ed.). Buenos Aires: Poseidón.
Le Corbusier (1945). Principios de Urbanismo. Carta de Atenas (editorial 1971). Barcelona Editorial Ariel.
Le Corbusier (1954). Una pequeña casa. (1º edición español 2005). Buenos Aires: Infinito.
Leach, N. (2009a). Digital Morphogenesis. Architectural Design, 79(1), 32 y ss.
Leach, N. (2009b). Swarm Urbanism. Diseño Arquitectónico, 4(79).
Ledesma Durán, A. (2012, diciembre). Patrones de Turing en sistemas biológico (Tesis de Maestro en Ciencias
Matemáticas Aplicadas e Industriales). Universidad Autónoma Metropolitana - Iztapalapa División De Ciencias Básicas
e Ingeniería, México DF. Recuperado a partir de http://mat.izt.uam.mx/mcmai/documentos/tesis/Gen.10-O/Ledesma-DATesis.pdf
Lee, F. (2013, septiembre 16). 3-D Printed Gun Goes on Display at London Museum. Recuperado 25 de mayo de 2015, a
partir de https://artsbeat.blogs.nytimes.com/2013/09/16/3-d-printed-gun-goes-on-display-at-london-museum/?_r=0
Leroridiaconou, N., & Parvin, lastair. (2011). Support wikihouse development [WikiHouse]. Recuperado 8 de julio de 2013,
a partir de https://wikihouse.cc
Levene, R., & Márquez Cecilia, F. (1995). Frank Gehry, 1991-1995. El Croquis, (74/75).
Levene, R., & Márquez Cecilia, F. (1998). … Towards the end of the 20 th Century. El Croquis, (88/89).
Levis, D. (2009). La pantalla ubicua: televisores, computadoras y otras pantallas. Buenos Aires: La Crujía Ediciones.
Liernur, J. (2010). Arquitectura en teoría. Escritos 1986-2010. Buenos Aires: SCA. Nobuko.
Loos, A. (1974). Ornamento y delito. Barcelona: Gustavo Gili.
López del Rincón, D. (2015). Bioarte. Arte y vida en la era de la biotecnología. Madrid: Akal.
López Fernández, M. (2009). Arquitectura biodigital Emergente (Tesis Master Arquitectura Biodigital). ESARQ,
Universitat Internacional de Catalunya, Barcelona.
López Salinas, A. M. (2011). Introducción a la vida artificial y autómatas celulares. México: Instituto de Investigaciones sociales
UNAM. Recuperado a partir de http://uncomp.uwe.ac.uk/genaro/Papers/Veranos_McIntosh_files/vida_artificial_Miriam.pdf
Luzarraga Álvarez, M. (2009). Distopias Genéticas. Hacia una ciencia computacional de la naturaleza. ESARQ, UIC.
Barcelona.
Lynn, G. (1999). Animate form. New York: Princenton Architectural.
Lynn, G. (2000a). Embriological house. Recuperado 20 de octubre de 2017, a partir de http://archives.docam.ca/en/wpcontent/GL/GL3ArchSig.html
367
Bibliografía
Lynn, G. (2000b). Greg Lynn: Embryological houses. AD “Contemporary Processes in Architecture”, (70).
Lynn, G. (2002). Folds, Bodies & Blobs: Collected Essays. En De lo digital a lo analógico (Dollens, Dennis). Barcelona:
Gustavo Gili.
Lynn, G. (2008). Form. New York: Random House Incorporated.
Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal:
Canadian Centre for Architecture.
Lyon, A. (2009). Entwined: Materializaciones Generativas. Exploración en Pieles Estructurales; entre el diseño
paramétrico y algoritmos generativos. En MARQ 4, Fabricación y tecnología digital (Hugo Mondragón). Santiago de
Chile: Pontificia Universidad Católica de Chile.
Lyon, E. (2009). Diseño y Fabricación digital. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo).
Santiago de Chile: Pontificia Universidad Católica de Chile.
Macho Stadler, M. (2010). Fundamentos de Topología. País Vasco: Universidad del País Vasco. Departamento de
Matemáticas. Recuperado a partir de http://www.ehu.eus/~mtwmastm/FT1011.pdf
Maderuelo, J. (2008). La idea del espacio en la arquitectura y el arte contemporáneo 1960-1989. Madrid: Editorial AKA.
Maldonado, T. (1994). Lo real y lo virtual (2o edición 1999). Barcelona: Gedisa.
Mandelbrot, B. B. (1977). The Fractal Geometry of Nature. W. H. Freeman.
Marczyk, A. (1993). Algoritmos genéticos y computación evolutiva. En Computer Based Learning Unit (Drakos, Nikos).
Leeds: University of Leeds. Recuperado a partir de http://the-geek.org/docs/algen
Martienssen, R. (1961). La idea del espacio en la arquitectura griega (1o Edición Witwaterstand University Press, 1956).
Buenos Aires: Ediciones Nueva visión.
Martín Juez, F. (2002). Contribuciones para una antropología del diseño. Barcelona: Gedisa.
Martínez López, V. M., & Pueblo Pons, J. (2010). El diagrama como estrategia del proyecto arquitectónico contemporáneo.
Revista Expresión Gráfica Arquitectónica, (16), 96-105.
Massad, F., & Guerrero Yeste, A. (2003). Arquitectura en la era de la Revolución Digital. Experimenta, (45).
Masterman, M. (1975). La naturaleza de los paradigmas. En La crítica y el desarrollo del conocimiento: actas del
Coloquio Internacional de Filosofía de la Ciencia celebrado en Londres en 1965. México: Grijalbo.
Maturana, H. (1997). Metadesign. Instituto de Terapia Cognitiva Post-Racionalista Inteco. Recuperado a partir de http://
www.inteco.cl/1997/08/01/metadesign/
Maver, T. (2004). Prologo. En Cultura Digital: comunicación y sociedad (Montagu, Arturo). Buenos Aires: Paidos.
McDonell, G. J. (1998). ¿Qué es la transdisciplinariedad? Simposio Internacional de Transdisciplinariedad. UNESCO.
Merriam, W. (2017). Diccionary Merriam-Webster. Merriam-Webster. Recuperado a partir de https://www.merriamwebster.com/dictionary/biomimetics
Miceli, A. (2016). Arquitectura sustentable. Más que una nueva tendencia una necesidad. Buenos Aires: Diseño.
368
Midant, J. P. (2004). Diccionario Akal de la Arquitectura del siglo XX. Madrid: Ediciones Akal.
Migayrou, F. (2003). Architecture Non Standard. París: Editions Centre Pompidou.
Molina, Á. (2004). Le déjeuner sur Dalí. Manifiestos visuales y cultura de masa. Arquitectura Viva, (94/95), 118-125.
Mondragón, H. (2009). Editorial. Fabricación y Tecnología Digital. En MARQ 04 Fabricación y Tecnología Digital
(Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile.
Montagu, A. (2004a). El tercer momento de la sociedad contemporánea. En Cultura Digital: comunicación y sociedad
(Montagu, Arturo). Buenos Aires: Paidos.
Montagu, A. (2004b). Introducción. En Cultura digital: comunicación y sociedad (Montagu, Arturo; Pimentel, Diego;
Groisman, Martin). Paidós.
Montagu, A., Mariño, M., & Igarzabal De Nistal, M. (1993). El aporte de la informática en la arquitectura, el diseño y el
urbanismo. Buenos Aires: Dir. Investigación, Sec. De Inv. y Post. FADU. UBA.
Montaner, J. M. (1995). El racionalismo como método de proyectación: progreso y crisis. Temes de disseny, (12).
Recuperado a partir de https://dialnet.unirioja.es/servlet/articulo?codigo=2783078
Montaner, J. M. (1997). La modernidad superada: arquitectura, arte y pensamiento del siglo XX. Barcelona: Gustavo Gili.
Montaner, J. M. (1999). Después del Movimiento Moderno: Arquitectura de la segunda mitad del siglo XX. Barcelona:
Gustavo Gili.
Montaner, J. M. (2008). Sistemas arquitectónicos contemporáneos. Barcelona: Editorial Gustavo Gili, S.L.
Marcelo A. Fraile - Arquitectura biodigital
Montaner, J. M. (2014). Del diagrama a las experiencias, hacia una arquitectura de la acción. Barcelona: Editorial
Gustavo Gili.
Montaner, J. M. (2015). La condición contemporánea de la arquitectura. Barcelona: Gustavo Gili.
Moratalla, N. L. (2006). Repensar la ciencia. Madrid: Ediciones Internacionales Universitarias.
MRDV. (2003). Stacking and layering, artificial ecologies. En El croquis 111. 1997-2002.
Moreno, J., & Olivart, R. (2010). Infordiversidad ecosistémica y desarrollo sostenible. En Miradas para un cambio de
paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
Morin, E. (1982). Para salir del siglo XX. Barcelona: Kairós.
Morín, E. (1998). El pensamiento complejo. Barcelona: Editorial Gedisa S.A.
Morin, E., & Sánchez, A. (1986). El Método 3: El conocimiento del Conocimiento (1999.a ed.). Madrid: Cátedra.
Morin, E., & Sánchez, A. (1992). El Método 4: Las ideas (2006.a ed.). Madrid: Cátedra.
Moscato, P., & Cotta, C. (2003). Una introducción a los algoritmos meméticos. Inteligencia Artificial. Revista
Iberoamericana de Inteligencia Artificial, 7(019), 131-148.
Munárriz Ortiz, J. (2006). Imagen digital. Madrid: Tursen S.A. - H. Blume.
Muñoz Kuri, R. (2011). Arquitectura Genética. El nuevo proyectar cibernético-digital y el nuevo proyectar ecológicoambiental (Maestria). ESARQ, UIC, Barcelona.
Negroponte, N. (1995). El Mundo digital: [el futuro que ha llegado]. Barcelona: Eds B.
Neufert, E. (1974). El Arte de proyectar en arquitectura. Barcelona: Gustavo Gili.
Novak, M. (1991). Liquid Architecture in Cyberspace. En Cyberspace: First Steps (Benedikt, Michael). Cambridge, Mass.
ONU. (2014, noviembre 24). Departamento de Asuntos Económicos y Sociales de Naciones Unidas. Recuperado 26 de
julio de 2017, a partir de http://www.un.org/spanish/waterforlifedecade/scarcity.shtml
Oosterhuis, K., & Barcelona, E. T. S. de A. de. (2004). BCN speed and friction: the Catalunya Circuit city. Barcelona:
Lumen, Inc./SITES Books.
Orciuoli, A. (2005). Cibernética de Wiener a Gibson. En Apuntes de Arquitectura (Arranz, Félix). Buenos Aires: Nobuko.
Orciuoli, A. (2011). La enseñanza de la fabricación digital aplicada a la arquitectura: diseño y producción en la era de la
información. ESARQ, UIC, Barcelona.
Orcivoli, A. (2004). Digital Tools: la aplicación de sistemas de información a la arquitectura. En BCN speed and friction:
the Catalunya Circuit city (Kas Oosterhuis). Barcelona: Lumen, Inc./SITES Books.
Ortega Barnuevo, G. (2015). Resonancias de la ciencia en la arquitectura. El paradigma de la Escuela de Madrid.
Buenos Aires: Diseño.
Ortega Calvo, Á. (2004). Teoría del Caos. ¿Un nuevo paradigma para la Lingüística? En Nuevas Investigaciones
Lingüísticas (p. 5 y ss). Madrid: Universidad Complutense de Madrid.
Ortega, L., & Zaera-Polo, A. (2009). La digitalización toma el mando. Barcelona: Editorial Gustavo Gili, S.L.
Ortiz, I. (2012). Norman Foster. Arquitectura para el mundo. Madrid: Tikal.
Orwell, G. (1999). 1984. México DF: Gerrero editor.
Outerelo Domínguez, E. (2000). Teoría de catástrofes. Las matemáticas del siglo XX. Una mirada en 101 artículos, (4344).
Oxman, R., Oxman, R. (2010). The new structuralism. Design, engineering and architectural technologies. AD Profile, nº
206. julio/agosto.
Oxman, N. (2014). Water-base Digital Fabrication Platform. Recuperado 25 de julio de 2017, a partir de http://matter.
media.mit.edu/environments/details/water-based-digital-fabrication-platform
Oxman, N. (2015, marzo). Design at the intersection of technology and biology. TED2015. Recuperado a partir de https://
www.ted.com/talks/neri_oxman_design_at_the_intersection_of_technology_and_biology
Oxman, N. (2016). Towards a material ecology. World Economic Forum. Recuperado a partir de https://www.weforum.org/
agenda/2016/01/towards-a-material-ecology/
Panofsky, E. (1997). La teoría de las proporciones en el arte clásico griego. En Historia de la Arquitectura. Antología critica
(Patteta, Luciano). Madrid: Ediciones Celeste.
Pardo, J. L. (2011, junio 18). Análisis | La vida y la máquina. EL PAÍS. Recuperado a partir de http://elpais.com/
diario/2011/06/18/babelia/1308355935_850215.html
Pask, G. (1975). Conversation Theory: Applications in Education and Epistemology. Michigan: Elsevier Science Limited.
369
Bibliografía
Pawlyn, M. (2011). Biomimicry in architecture. London: RIBA Publishing.
Pedraza Gómara, S. (2009). Geometrico con Modelado basado en curvas splines (Tesis doctoral). Politécnica de
Madrid. Escuela Técnica Superior De Ingenieros Industriales, Madrid.
Peinado, J., & García, J. M. (2008, abril). Autómatas Celulares. Recuperado 23 de octubre de 2017, a partir de http://www.
enelnombredetux.com/project292f.html?project=autcel
Pepper, S. C. (1942). World Hypotheses: A Study in Evidence. Los Angeles: University of California Press.
Pérez Arnal, I. (2003). Ecología y Construcción. En Arquitecturas Genéticas (Alberto T. Estévez). Barcelona: Escola
Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya.
Perez Onecha. (2012). Una nueva aproximación al De re aedificatoria (sobre la edificación) de León Battista Alberti. Los
conocimientos constructivos y sus fuentes (Tesis doctoral). Universidad Politécnica de Cataluña, Barcelona.
Perez Porto, J., & Gardey, A. (2013). Colectivos. Recuperado 5 de marzo de 2017, a partir de www.definicion.de/colectivo
Pérez Ransanz, A. R. (1999). Kuhn y el cambio científico. México: Fondo de Cultura Económica.
Perrault. (2004). Ordonnance des cinq espéces de Colonnes selon la méthode des anciens, 1683, préface. En Historia de
la estética III: La estética moderna, 1400-1700 (Tatarkiewicz, Wladyslaw). Ediciones Akal.
Picon, A. (2004). Architecture and the Virtual: Towards a New Materiality? Praxis 6.
Pigram, D., Maxwell, I., Rothenberg, B., & Blasetti, E. (2010, mayo 28). Trabeculae: Re-imagining the Office Building.
Recuperado a partir de http://www.evolo.us/architecture/trabeculae-re-imagining-the-office-building/
Pimentel, D. (2004). Superconectados. En Cultura Digital: comunicación y sociedad (Arturo Montagu). Buenos Aires:
Paidos.
Pinninghoff, M. A., Matthews, E., & Díaz, H. (2004). Diseño de redes viales urbanas usando algoritmos genéticos. Revista
ingeniería informática, (10). Recuperado a partir de http://www.inf.udec.cl/revista
Pinochet, D. (2009). Forma Digital / Forma construida. Diseño y Construcción de Sistemas Emergentes a partir de
Algoritmos Generativos. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo, p. 37 y 22). Santiago de Chile:
Pontificia Universidad Católica de Chile.
Piñon, H. (2005). La Forma y la mirada. Buenos Aires: Nobuko.
Plaza Guerrero, R. (1991). La comunicación hombre-máquina. Jaén: Universidad de Jaén.
Plaza Leiva, V. (2013, febrero). Implementación del algoritmo UEGO sobre el entorno Matlab como alternativa al toolbox
de optimización (Trabajo Fin de Máster). Universidad de Almería, Almería. Recuperado a partir de http://repositorio.ual.
es/handle/10835/1867?show=full
Prestinenza Puglisi, L. (2009). Anything Goes. AD Theoretical Meltdown, 79(1).
Prieto, E. (2012). Yo robot. Arquitectura Viva, (147).
Quatremère De Quincy, A. C. (2007). Diccionario de arquitectura: voces teóricas. Buenos Aires: Nobuko. Recuperado
a partir de http://biblio.uade.edu.ar:8080/client/es_ES/biblioteca/search/detailnonmodal/ent:$002f$002fSD_
ILS$002f0$002fSD_ILS:318408/ada?qu=DICCIONARIOS&ic=true&ps=300
370 Quintal, B. (2014, marzo 11). Bienal de Venecia 2014 ‘Fundamentals’: Koolhaas Revela Últimos Detalles. Recuperado
a partir de http://www.plataformaarquitectura.cl/cl/02-343030/bienal-de-venecia-2014-fundamentals-koolhaas-revelaultimos-detalles
RAE, Asale. (2014). Diccionario de la lengua española - Edición del Tricentenario. Recuperado 19 de septiembre de 2017,
a partir de http://dle.rae.es/?w=diccionario
Rahim, A. (2000). Systemic Dealy: breaking the mold. En AD Profile, nº 45, junio.
Rambla, W. (2007). Estética y diseño. Salamanca: Universidad de Salamanca.
Ramírez, J. A. (2004). Dalí, cuerpo y arquitectura. Metáforas orgánicas de una biografía artística. Arquitectura Viva,
(94/95).
Ramo, B. (2010). Oh Verde Todopoderoso. En Miradas para un cambio de paradigma (Barrera Puigdollers, José;
Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
Ramos, R. (2012). Informática Grafica. EPS de Ingeniería de Gijón, Universidad de Oviedo, Oviedo.
Ramos Salavert, I. (1995). Vida artificial. Castilla. La Mancha: Servicio de Publicaciones de la Universidad de Castilla-La
Mancha.
Reas, C., McWilliams, C., & Lust. (2010). Form + Code in design, art and architecture. New York: Princenton Architectural
Press.
Rey, S. (2016). Are you familiar with bioluminescence? Recuperado a partir de http://www.glowee.eu/
Marcelo A. Fraile - Arquitectura biodigital
Riegl, A. (1997). El espacio en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid: Ediciones
Celeste.
Riechmann, J. (2004). Biomímesis: un concepto clave para pensar la sustentabilidad. En Les dimensions socials de la
crisi ecológica. Illes Balears: Edicions UIB.
Rigotti, A. M. (2011). Moisei Ginzburg: fundar el estilo contemporáneo. En Materiales de la arquitectura moderna. Cuatro
Libros (Rogotti, Ana María; Pampinella, Silvia). Rosario: A&P ediciones.
Rivera Ojeda, O., & Guerra, L. H. (1999). Maquetas virtuales de arquitectura. Benedikt Taschen.
Robbins, S., & Decenzo, D. (2002). Fundamentos de administración: conceptos esenciales y aplicaciones. México:
Pearson educación.
Rocho, L. (2010, julio 29). Un canadiense trae la luz a Venecia. The Globe and Mail. Recuperado a partir de https://www.
theglobeandmail.com/arts/a-canadian-brings-the-light-to-venice/article1387968/?service=print
Rodríguez De Las Heras, A. (2016, febrero 20). Los nuevos artesanos digitales. Bez. Lo que debes saber, edición fin de
semana. Recuperado a partir de http://www.bez.es/58361096/Los-nuevos-artesanos-digitales.html
Rogers, R. (2015). Ciudades para un pequeño planeta. Barcelona: Gustavo Gili.
Rosa, A., Huertas, J. A., Blanco, F., & Travieso, D. (1999). Argumentando sobre el cambio historico. Explicaciones sobre
el pasado, el presente y el futuro de España. Psicología Política, (Número 18). Recuperado a partir de http://www.uv.es/
garzon/psicologia%20politica/N18-4.pdf
Rosenberg, A. (2010). Presentación. En El universo futurista 1909-1936 (Belli, Gabriella). Buenos Aires: Fundación Proa.
Roth, L. (2010). Entender la arquitectura. Sus elementos, historia y significado. Barcelona: Gustavo Gili.
Roudavski, S. (2009). Towards Morphogenesis in Architecture. International Journal of Architecture Computing, 7(3), 345374.
Royo, A. (2017). La sociedad gaseosa. Plataforma editorial.
Rubio, R. (2015). Materia y código, la construcción del espacio en la emergencia de lo digital. Arquis, (No3 Universo
paramétrico).
Rugarcía, A. (1996). La Interdisciplinariedad: El reino de la confusión. Revista de Educación Superior, 05(98).
Recuperado a partir de http://resu.anuies.mx/archives/revistas/Revista98_S1A4ES.pdf
Ruiz Millet, J., & Planella, A. (2003). Una experiencia Abierta. En Arquitecturas Genéticas (Estévez, Alberto). Barcelona:
Editorial Lumen, ESARQ, UIC.
Rykwert, J. (1997). La simbología en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid:
Ediciones Celeste.
Safire, W. (2002, diciembre 1). Defenestration. The New York Times Magazines: On Language. Recuperado a partir de
http://www.nytimes.com/2002/12/01/magazine/the-way-we-live-now-12-01-02-on-language-defenestration.html
Salso, J. (2017). De la modernidad liquida al posthumanismo gaseoso. Manifiesto Vital. Recuperado a partir de www.
manifiestovital.com
Sánchez, A. (2012, octubre 17). Turing y sus patrones: el pionero de la biología matemática. Recuperado 1 de junio de
2015, a partir de http://nadaesgratis.es/anxo-sanchez/turing-y-sus-patrones-el-pionero-de-la-biologia-matematica
Sánchez Garduño, F. (2013). Sobre la teoría morfogenética de Turing. Miscelánea Matemática, (56).
Sánchez Vidiella, Á. (2011). Arquitectura del siglo XXI. Amplia selección de obras contemporáneas. Madrid: Ilus books.
Sarbin, T. R. (1986). Narrative Psychology: The Storied Nature of Human Conduct. New York: Praeger.
Sarquis, J. (2004). Itinerarios del proyecto: Ficción de lo real. Buenos Aires: Nobuko.
Sass, L. (2007). YourHouse. Recuperado 30 de octubre de 2017, a partir de http://web.mit.edu/yourhouse/
yourHOUSE%20brochure.pdf
Sastre Domínguez, P. (2016). Perfomatividad y arte computacional. Hacia una ‘DIY society’. Revista Teoknokultura, 13(1),
193-215.
Schieda, A. (2015a). Glosario. Arquis, (No3 Universo paramétrico), 101-103.
Schieda, A. (2015b). Mapa Móvil. Arquis, (No3 Universo paramétrico), 11-15.
Schmitt, G. (1999). Information Architecture. Future and Basis of CAAD. Basilea: Birkhäuser.
Schulz, C. (1999). Arquitectura Occidental. Barcelona: Gustavo Gili.
Schumacher, P. (2008). Parametricismo como estilo – manifiesto parametricista. En Club Dark Side. Londres.
Recuperado a partir de http://www.urbanismo.com/arquitecturayurbanismo/manifiesto-parametricista-patrik-schumacherestructura-el-estilo-digital/
371
Bibliografía
Schumacher, P. (2013). Adaptive Ecologies - Correlated Systems of Living. London: AA Publications.
Schwartz, G. E., & Russek, L. G. (2012, octubre 12). El desafío de una medicina: teorías de la salud y ocho. « «Hipótesis
del mundo. Polis. Revista Latinoamericana. Recuperado a partir de http:// polis.revues.org/7011
Senosian Aguilar, J. (1998). Bio-arquitectura. En busca de un espacio. México DF: Grupo Noriega Editores.
Shmidt, C. (1993, mayo). El Carácter arquitectónico y la ruptura de la tradición clásica. Instituto de arte americano e
investigaciones estéticas. Recuperado a partir de www.iaa.fadu.uba.ar/publicaciones/critica/0035.pdf
Slavinsky, D. (2011). Authorship at risk: the role of the architect. Architectural Design, (Protocell Architecture, no 210), 9099.
Slessor, C. (1997). Eco-Tech. Arquitectura high-tech y sostenibilidad. Barcelona: Gustavo Gili.
Solá-Morales, I. (2003). Practicas teóricas, practicas históricas, practicas arquitectónicas. En Inscripciones. Barcelona:
Gustavo Gili.
Soleri, P. (2017). Arcosanti: An urban laboratory. Recuperado 30 de octubre de 2017, a partir de www.arcosanti.org
Solís Santos, C. (2006). Una revolución del siglo XX. En La estructura de las Revoluciones Científicas (Kuhn, Thomas).
México: Fondo de lCultura Económica.
Soriano, F. (2004). Sin tesis. Barcelona: Gustavo Gili.
Spiller, N. (2011). Protocells: The universal solvent. Architectural Design, (Protocell Architecture, no 210).
Spiller, N., & Armstrong, R. (2011). It’s a Brand New morning. Architectural Design, (Protocell Architecture, no 210).
Spinadel de, V., Perera, J. G., & Perera, J. H. (2007). Geometría fractal. Buenos Aires: Nueva Librería.
Spinadel de, V. (2011). Forma y matemática. La familia de números metálicos en diseño. Buenos Aires: Nobuko.
Spinadel de, V. (2012). Forma y matemática II. Fractales y forma. Buenos Aires: Nobuko.
Stacey, M. (2013, mayo). Proto-materials: Material Practices in architecture at molecular and celular scales. Prototyping
Architectura: The conference. Recuperado a partir de https://www.researchgate.net/publication/261108036_Protomaterials_Material_Practices_at_Molecular_and_Cellular_Scales
Stapledon, W. O. (1930). Last and First Men: A Story of the Near and Far Future. London: Metheus.
Steadman, P. (2011). The evolution of designs: Biological analogy in architecture and the applied arts. En Posessing the
Urpflanze: an Examination of the Nature and Purpose of Biology-Design Analogy via Biomimetic Practice (Royal Binet,
Emily). Austin: The University of Texas at Austin.
Steele, J. (2001). Arquitectura y revolución digital. Barcelona: Gustavo Gili.
Stelarc. (2015, octubre 25). Página web oficial de Stelarc.
Stuart-Smith, R. (2004). Kokkugia, computation. Recuperado 3 de marzo de 2016, a partir de http://www.robertstuartsmith.com/filter/research
Sullivan, L. (1896). The tall office Office Building Arstistically Considered. Lippincott’s Magazine, 403-409.
372
Summerson, J. (1979). El Lenguaje clásico de la arquitectura: de L.B. Alberti a Le Corbusier (1a edición 1963).
Barcelona: Gustavo Gili.
Suñol, V. (2005). La mimesis Aristotélica más allá de los límites de la poética. Phaos, Revista de Estudos Clássicos, 5,
107 – 126.
Tapia, A. (2007). Mímesis y persuasión. Universidad Autónoma Metropolitana. Recuperado a partir de http://
elarboldelaretorica.blogspot.com.ar/2007/04/mmesis-y-persuasin.html
Tatarkiewicz, W. (2004). Historia de la estética III: La estética moderna, 1400-1700. Madrid: Ediciones Akal.
Tedeschi, A. (2014). AAD Algorithms-aided Design: Parametric Strategies Using Grasshopper. Italia: Le Penseur.
Teixeira De Almeida, C. C. (2014). O conceito de Metadesign. O Colloquium on Metadesign, na Universidade Goldsmiths
em Londres. SIGRADI 2014. DESIGN IN FREEDOM, 1(8). Recuperado a partir de wwwproceedings.blucher.com.br/
evento/sigradi2014
Tezidis, K. (2006). Algorithmic Architecture. Burlington: Architectural Press.
Thom, R. (1987). Estabilidad estructural y morfogénesis: ensayo de una teoría general de los modelos. Barcelona:
Gedisa.
Thompson, D. (1961). Sobre el crecimiento y la forma (2003.a ed.). Madrid: Ediciones Akal.
Toffler, A. (1970). El «shock» del futuro. Barcelona: Plaza y Janés.
Tolmos Rodríguez-Piñero, P. (2003). Introducción a los algoritmos genéticos y sus aplicaciones. Madrid: Universidad
Rey Juan Carlos. Recuperado a partir de https://dialnet.unirioja.es/servlet/libro?codigo=185891
Marcelo A. Fraile - Arquitectura biodigital
Turing, A. (1952). The chemical basis of morphogenesis. Philosophical Transactions de la Royal Society of London.
Townsend, A. (2014). On the Spline: A Brief History of the Computational Curve. En International Journal of Interior
Architecture + Spatial Design, Applied Geometries. Recuperado a partir de http://www.alatown.com/spline-historyarchitecture/
Urbano, J. (2009). Gaudí-Dalí. En Arquitectura Genética III. Barcelona: Lumen, Inc./SITES Books ESARQ-UIC.
Urbano, J. (2016). Gaudí, Dalí y el origen de la arquitectura génetica. TRP21, (4. Teoría). Recuperado a partir de www.
trp21.com.ar/trp4/jurbano.html
Vagnetti, L. (1997). El tratado (o ‘manual’) Vignola. En Historia de la arquitectura. Antología critica (Celeste Ediciones).
Madrid: Patteta, Luciano.
Valentino, J., Giménez, C., & Miras, M. (2011). La arquitectura cómplice. Buenos Aires: Nobuko.
Valentino, J., Giménez, C., & Miras, M. (2013). Las analogías biológicas desde la perspectiva de la teoría contemporánea.
Critica 185, Instituto de Arte Americano, FADU, UBA.
Valentino, J., Giménez, C., & Miras, M. (2014). Arquitectura + Biología: teorías, analogias y proyectos. Buenos Aires:
Teoría de la Arquitectura.
Van der Maas, S. (2011). El diagrama en la arquitectura. Dearq. El medio como fin, (08). Recuperado a partir de www.
diagramasenarquitectura.blogspot.com.ar
Van Onck, A. (1965). Metadesign. Produto e linguagem, 1(2), 27-31.
Vassão, C. (2010). Metadesign: ferramentas, estratégias e ética para a complexidades. San Paulo: Bluche.
Velásquez, O. (2001). La significación del paradigma en el Timeo de Platón y su carácter articulador. Diadokhé
Revista de estudios de filosofía platónica y cristiana. Recuperado a partir de http://diadokhe.olea.biz/wp-content/
uploads/2016/03/paradigma.pdf
Velázquez, R. (2008). Greg Lynn. Recuperado 8 de noviembre de 2017, a partir de https://sites.google.com/site/
cursoopcionaldiagramas/momentos/momento-analitico/textos-1
Venturi, R., & Scully, V. (1995). Complejidad y contradicción en la arquitectura (2o edición 1978). Barcelona: Gustavo Gili.
Vidal Climent, I. (2010). El sentido de un paradigma en arquitectura. En Miradas para un cambio de paradigma (Barrera
Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura.
Vidal, M. (2014). Presente: Dennis Dollens, arquitecto biomimético. Revista digital IF, (58). Recuperado a partir de http://
www.infonomia.com/wp-content/uploads/2014/05/if_58.pdf
Virilio, P. (1996). El arte del motor. Aceleracion y realidad virtual. Buenos Aires: editorial manantial.
Vitruvio, M. L. (s. f.). Los diez libros de arquitectura (edic. 1997) Madrid:Iberia.
Von Moos, S. (2012). Decoros anacrónicos. Una respuesta a Vittorio M. Lampugnani. Arquitectura Viva, (143).
Vrachliotis, G. (2008). The Leap from Linear to Computational Consciousness: Evolutionary Models of Thought and
Architecture. En Precisions. Architecture between Sciences and the Arts (Ole W. Fischer, pp. 232-261). Berlin: Jovis.
Waddington, W. (1987). Prefacio de la primera edición. En Estabilidad estructural y morfogénesis. Ensayo de una teoría
general de los modelos (Thom, René). Barcelona: Editorial Gedisa S.A.
Wagensberg, J. (2013). La rebelión de las formas. Buenos Aires: Tusquets Editores S.A.
Waisman, M. (1993). El interior de la historia: historiografía arquitectónica para uso de latinoamericanos. ESCALA.
Walker, E. (2010). Lo ordinario. Barcelona: Gustavo Gili.
Waltz, K. (1988). Teoría de la política internacional: Kenneth N. Waltz (1998.a ed.). Buenos Aires: Grupo Editor
Latinoamericano.
Watts, B. (2011). Bettering biology? Architectural Design, (Protocell Architecture, no 210).
Weinstock, M. (2004). Morphogenesis and the Mathematics of Emergence. AD Emergence: Morphogenetic Design
Strategies, 74(3), 10-17.
Weinstock, M. (2006). Self-Organisation and the Structural Dynamics of Plants. Architectural Design, (76), 34-41.
White, H. V., & White, H. (1992). Metahistoria: la imaginación histórica en la Europa del siglo XIX (1973.a ed.). México:
Fondo de Cultura Económica.
Williams, H. (2003). Zoomorphic. New Animal architecture. Londres: Laurence King Publishing.
Wiley, J. (2011). A manifesto for protocell architecture: against biological formalism. Architectural Design, (Protocell
Architecture, no 210).
Wolfram, S. (2002). New Kind of Science: Notes from the Book. Illinois: Wolfram Media.
373
Bibliografía
Wood, J. (2015). Collective Metamorphosis. A combinatorial approach to transformation design. En Transformation Design.
Perspectives on a New Design Attitude (Wolfgang, Jonas; Zerwas, Sarah, Von Anshelm, Kristof). Suiza: Birkhäuser.
Zaera – Polo, A. (1997). Una Conversación con Peter Eisenman. El Croquis, Peter Eisenman, 1990-1997(83).
Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis, (Frank Gehry 1991-1995 74/75).
Zaera Polo, A. (1998). Un mundo lleno de agujeros. El croquis, 88,89, 308.
Zátony, M. (2003). ¿Realidad virtual? Buenos Aires: Nobuko Sa.
Zátonyi, M. (2002). Una Estética del arte y del diseño de imagen y sonido. Buenos Aires: Libreria Técnica CP67.
Zátonyi, M. (2007). Arte y creación: los caminos de la estética. Buenos Aires: Capital Intelectual S A.
Zátonyi, M. (2011a). Arquitectura y diseño. Análisis y teoría. Buenos Aires: Nobuko.
Zátonyi, M. (2011b). Juglares y Trovadores: derivas estéticas (1 ed.). Buenos Aires: Capital Intelectual.
Zavalbeascoa, A. (2007, septiembre 15). Entrevista: Arquitectura. Greg Lynn. Recuperado 3 de mayo de 2009, a partir de
https://notiarquitectura.wordpress.com/category/lynn/
Zerbst, R. (1991). Antoni Gaudi. Barcelona: Taschen.
Zopf, D., Ohye, R., & Nelson, M. (2013, mayo 22). Baby’s life saved with groundbreaking 3D printed device from University
of Michigan that restored his breathing. Recuperado 25 de mayo de 2015, a partir de http://www.mottchildren.org/news/
archive/201305/baby%E2%80%99s-life-saved-groundbreaking-3d-printed-device
Zumthor, P. (2006). Atmosferas. Barcelona: Gustavo Gili.
Zumthor, P. (2009). Pensar en Arquitectura. Barcelona: Gustavo Gili.
374