Cultura Científica y Cultura Tecnológi PDF
Cultura Científica y Cultura Tecnológi PDF
Cultura Científica y Cultura Tecnológi PDF
CULTURA CIENTÍFICA
Y CULTURA TECNOLOGICA
diciones niversidad
Salamanca
ANA CUEVAs BADALLo - oBDULLA TORREs GoNZÁLEZ
RODRIGO, LOPEV-ORELLANA - DANIEL LABRADOR MONTERO
(EDS.)
CULTURA CIENTÍFICA
Y CULTURA TECNOLOGICA
diciones niversidad
Salamanca
Actas del IV Congreso Iberoamericano
de Filosofía de la Ciencia y la Tecnología
Editores
Organizadores
Comité Organizador
CULTURA CIENTÍFICA
Y CULTURA TECNOLÓGICA
AQUILAFUENTE, 250
Usted es libre de: Compartir — copiar y redistribuir el material en cualquier medio o formato
Ediciones Universidad de Salamanca no revocará mientras cumpla con los términos:
INTRODUCCIÓN
Ana CUEVAS y Obdulia TORRES
I. CIENCIA, TECNOLOGÍA Y SOCIEDAD
LA TRANSFORMACIÓN NEOLIBERAL DE LA CIENCIA CONTEMPORÁNEA: DE LA
COMERCIALIZACIÓN DEL CONOCIMIENTO A LA PRODUCCIÓN DE LA IGNORANCIA
Eduard AIBAR
LOS ESTÁNDARES DE CIENTIFICIDAD DE LA PRUEBA: DELIMITADORES DEL CONCEPTO
PROCESAL DE CIENCIA
Juan Manuel ALCOCEBA GIL
TENSIONES ENTRE SOCIEDAD Y ECONOMÍA DEL CONOCIMIENTO: UNA MIRADA CRÍTICA DESDE
LOS ESTUDIOS CTS
Lola S. ALMENDROS, Alexis RÚBIES GIRAMÉS
REVISIÓN DE LA DICOTOMÍA ONTODEÓNTICA EN VISTA A UNA AXIOLOGÍA DE LAS CIENCIAS.
EL CASO DE LA INVESTIGACIÓN CON CÉLULAS MADRES
Cristina AMBROSINI, Cecilia POURRIEUX
¿ES UNA DECISIÓN RACIONAL (NO) VACUNARSE?
Cipriano BARRIO ALONSO
TECNOLOGÍA Y CULTURA EN LOS ARCHIVOS COLATERALES DEL ARTE CONTEMPORÁNEO
Mónica Francisca BENÍTEZ DÁVILA
LA FUNCIÓN NORMATIVA DE LOS ARTEFACTOS TECNOLÓGICOS EN LAS PRÁCTICAS DE
SUBJETIVACIÓN EN CONTEXTOS DE DESIGUALDAD DE GÉNERO
Cristina BERNABÉU FRANCH
CIENCIA Y TECNOLOGÍA PARA EL POSCONFLICTO EN COLOMBIA
Pedro Pablo BURBANO, M.SC., PH.D
EMPODERAMIENTO EN LA RED INTERGENERACIONAL INNOVADORA DE PRODUCCIÓN DE MAÍZ
EN CIUDAD DE MÉXICO
Wendy CANO, Andoni IBARRA
LUCES Y SOMBRAS DEL INFORME DE DAVID KAYE (ONU) SOBRE CRIPTOGRAFÍA, ANONIMATO
Y DERECHOS HUMANOS
Miquel COMAS OLIVER
A ÉTICAJONASIANA COMO PROPOSTA PARA A SOCIEDADE TECNOCIENTÍFICA
Alesi Costa LIMALEAL, Angela LUZIA MIRANDA
DESEXTINCIÓN Y REWILDING, UNA ALIANZACUESTIONABLE
José Manuel DE CÓZAR ESCALANTE
TRANSHUMANISMO Y NATURALEZA HUMANA
Antonio DIÉGUEZ
REPENSAR LA CULTURA CIENTÍFICO-TECNOLÓGICA A LA LUZ DEL ANTROPOCENO: LÍMITES Y
POSIBILIDADES DE LA AGENCIA HUMANA
Iñigo GALZACORTA, Luis GARAGALZA, Hannot RODRÍGUEZ
LA INNOVACIÓN INCLUSIVA COMO UNA RED DE INTERACCIÓN CONTINGENTE: LA
CORPORACIÓN MONDRAGÓN COMO CONSTITUCIÓN SOCIO-TÉCNICA
Juan Carlos GARCÍA CRUZ
INNOVACIÓN INCLUYENTE Y PLURAL. UNA PROPUESTA PARA LA CONSTITUCIÓN DE
POLÍTICAS PÚBLICAS EN LA SOCIEDAD DE CONOCIMIENTOS
Juan Carlos GARCÍA CRUZ
EL «FUERA DE CAMPO» EN LA INVESTIGACIÓN ACTIVISTA CON INTERSEXUALIDADES
(S.) GARCÍA DAUDER
EL REDUCTO MASCULINO DEL QUIRÓFANO: LA SITUACIÓN DE LAS CIRUJANAS EN LAS
PRIMERAS DÉCADAS DEL SIGLO XXI
Salvador GARCÍA LAX
LA PARTICIPACIÓN CIUDADANA COMO EJE DE LAS ACTIVIDADES CIENTÍFICO-TECNOLÓGICAS
Daniel LABRADOR MONTERO
EL OCASO DE LA ERA CIENTÍFICA
Martín LÓPEZ CORREDOIRA
ASPECTOS PEDAGÓGICOS Y FILOSÓFICOS EN LA ALFABETIZACIÓN CONSOFTWARE LIBRES
Manuel DE JESÚS MADÉZABALA
CONSOLIDACIÓN DE UNA SÍNTESIS FENOMENOLÓGICA: EL CASO DE ESTUDIO SOBRE LA
ELECTRICIDAD VOLTAICA
José Francisco MALAGÓN SÁNCHEZ, Sandra SANDOVAL OSORIO, Marina GARZÓN BARRIOS, María
Mercedes AYALA MANRIQUE, Liliana TARAZONAVARGAS
UMA INTRODUÇÃO CRÍTICA À ENERGIA EÓLICA: OS VENTOS QUE SOPRAM NO RIO GRANDE DO
NORTE
João Modesto DE MEDEIROSJÚNIOR, Angela LUZIA MIRANDA
EL USO DE LOS INGRESOS ECONÓMICOS ANALIZADOS DESDE UNAVISIÓN DE GÉNERO
Lilián Marisa MÉNDEZ RAVINA, Gabriel Alberto AVIÑA SOLARES, Galia Alexandra GUTIÉRREZ DELGADO
CIENCIA, POLÍTICA Y POLÍTICAS: ACERCA DE LOS ENCUENTROS Y DESENCUENTROS EN
RELACIÓNALANOCIÓN DE PARTICIPACIÓN
María del Mar MONTI
EMOCIONES, ACTITUDES Y NATURALEZA DE LA CIENCIA. DIAGNÓSTICO EN ESTUDIANTES DE
COLEGIOS PÚBLICOS DE BOGOTÁ
Pablo J. MORENO CASTRO, Gonzalo PEÑALOZA, Luis Carlos RAMÍREZ-OLAYA
LA NANORROBÓTICA EN EL MARCO DE LA INVESTIGACIÓN E INNOVACIÓN RESPONSABLES
Andrés Manuel NÚÑEZ CASTRO, Jabel Alejandro RAMÍREZ NARANJO
UNIVERSIDADES PÚBLICAS Y DIVULGACIÓN CIENTÍFICA: ANÁLISIS DE LAS UNIDADES DE
CULTURA CIENTÍFICA E INNOVACIÓN
Gabriela OJEDA-ROMANO, Viviana FERNÁNDEZ-MARCIAL
LA RELEVANCIA DE LOS BIENES COMUNES EN LASTECNOLOGÍAS ENTRAÑABLES
Martín PARSELIS
IBERCIVIS COMO CASO DE ESTUDIO
Maite PELACHO LÓPEZ
REALIDAD AUMENTADA. UNA DESCRIPCIÓN NEOPRAGMATISTA DE SUVIRTUALIDAD
Edison Patricio PROAÑO AYABACA
EL PAPEL DEL MEDIADOR DE CIENCIA, TECNOLOGÍA Y TECNOCIENCIA EN LAS SOCIEDADES DE
CONOCIMIENTOS
Mónica B. RAMÍREZ SOLÍS
LA TÉCNICA EN HEIDEGGER Y DERRIDA. APROXIMACIONES Y DIVERGENCIAS
Delmiro ROCHA ÁLVAREZ
POCO VISIBLES PERO INDISPENSABLES: POSICIÓN Y CONDICIÓN DE LAS MUJERES EN LA
FORMACIÓNACADÉMICA UNIVERSITARIA
Alizon Wilda RODRÍGUEZ NAVIA
PARTICIPACIÓN INMERSIVA. LA COMUNICACIÓN DE LA CIENCIA COMO CONSTITUYENTE DE
LO SOCIAL
Hugo RUBIO VEGA
LA COMUNICACIÓN DE LA CIENCIA Y LA TECNOLOGÍA COMO HERRAMIENTA PARA LA
INCLUSIÓNSOCIAL
Xenia A. RUEDA ROMERO
EQUIVALENCIA ENTRE CAMPOS FENOMENOLÓGICOS.EL CASO DE LA ENERGÍA QUÍMICA
Sandra SANDOVAL OSORIO
DISCURSOS FILOSÓFICOS ENTORNO A LAS TECNOLOGÍAS EN COLOMBIA
Roger de Jesús SEPÚLVEDA FERNÁNDEZ, Gustavo Adolfo FLÓREZ VEGA
LAS FORMULACIONES INVENTIVAS EN EL PENSAMIENTO DE SIMONDON.CLAVES DE
INTERPRETACIÓN PARA UNANÁLISIS CULTURAL
Julio SILVA GARCÍA, Alejandro LIMPO GONZALEZ
LA CULTURA TECNOLÓGICA EN EL MOVIMIENTO MAKER
Raúl TABARÉS GUTIÉRREZ
FILOSOFÍA EN COOPERACIÓN LATINOAMERICANA:INNOVACIÓN POST-CIENCIA/TECNOLOGÍA
María Belén TELL
CIENCIA CON Y PARA LA SOCIEDAD: EL ROL DE LA CIUDADANÍA EN EL ENFOQUE DE
INVESTIGACIÓN E INNOVACIÓN RESPONSABLES (RRI)
Sergio URUEÑA LÓPEZ
USO Y PERCEPCIÓN DE LASTICPARA EL EMPODERAMIENTO
Jaqueline VALENZUELA MEZA, Gabriel ROVIRA VÁZQUEZ
INTERDISCIPLINARIEDAD DEL DISEÑO DE INFORMACIÓN EN LA RE-DEFINICIÓN DE LA
CULTURA CIENTÍFICA Y TECNOLÓGICA DE LA CIENCIA DE LA INFORMACIÓN
Maria José VICENTINIJORENTE, Dunia LLANES PADRÓN, Natalia NAKANO, Mariana CANTISANI PADUA
SOBRE LA TENSIÓN ENTRE LA CIENCIA ABIERTA Y EL REQUISITO DE NOVEDAD EN LA PATENTE
Sulan WONG RAMÍREZ
AZAR Y PROBABILIDAD: UNENFOQUE MULTIDISCIPLINARY FILOSÓFICO
Miguel YARZA LUACES
LA RAÍZ ANTROPOLÓGICA DE LA PERCEPCIÓN DEL RIESGO Y LA MATEMÁTICA
Miguel YARZA LUACES
ESTRATEGIAS DE ENSEÑANZA DE DISTINTOS TIPOS DE RAZONAMIENTO: EL CASO DE LA
ABDUCCIÓN REFERENCIADA A UNA INVESTIGACIÓN
Victoria ZANÓN, Eduardo Enrique LOZANO
II. TEMAS FILOSÓFICOS DE LAS DISCIPLINAS PARTICULARES
ALGUNOS PROBLEMAS Y POSIBILIDADES DE LAS MEDIDAS OBJETIVAS DE LA CONCIENCIA
José Víctor AHUMADA, Adrian Omar RAMÍREZ
EL RUMOR DE LA CIUDAD. ARGUMENTACIÓN ENTWITTER
Enrique ALONSO
CONOCIMIENTO EXTENDIDO: PROCESOS, HABILIDADES E INTEGRACIÓN
Gloria ANDRADA DE GREGORIO
ENFERMEDAD MENTAL: LA APROXIMACIÓN DE IAN HACKINGAL DEBATE ENTRE REALISMO Y
CONSTRUCCIONISMO
Virginia BALLESTEROS
ABDUCCIÓN CON LÓGICA DIALÓGICA
Cristina BARÉS GÓMEZ, Matthieu FONTAINE
¿PUEDEN RESOLVER LAS NEUROCIENCIAS EL PROBLEMA DEL LIBRE ALBEDRÍO?
José Óscar BENITO VICENTE
LA CULTURA BIOLOGIZADA. SOBRE RAÍZ EVOLUTIVA DE LA CULTURA HUMANA
Oscar David CAICEDO
INSUFICIENCIA DEL DESARROLLO DE LA FILOSOFÍA DE LAS CIENCIAS SOCIALES
Jaime CAICEO ESCUDERO
NUEVAS PERSPECTIVAS SOBRE DIAGNÓSTICO NEUROPSIQUIÁTRICO PERSONALIZADO COMO
PRÁCTICA CIENTÍFICA
Alejandro CARDEÑA MARTÍNEZ
MODELOS EN FILOSOFÍA DE LA CIENCIA: EL CASO DE LA NANOCIENCIA
Alejandra CASAS-MUNOZ
¿EL ESPACIOTIEMPO ES UNENTE DEL MUNDO? BASES PARA UNPLURALISMO ONTOLÓGICO
DEL ESPACIO Y EL TIEMPO
Gilberto CASTREJÓN
INCERTIDUMBRE Y SIMULTANEIDAD: OPERACIONES DE RACIONALIDAD ENUN MODELO
COMPLEJO PARA LAS DECISIONES EVALUATIVAS
Gabriel Michel CUEN, Eduardo Manuel GONZÁLEZ DE LUNA
APROXIMACIONES DESDE LA FILOSOFÍA AL ESTUDIO DE LA ALUCINACIÓN Y SU RELACIÓN CON
LA PERCEPCIÓN
Ana Lorena DOMÍNGUEZ ROJAS
SER CRÍTICOS CON NUESTROS PRINCIPIOS CRÍTICOS
José Ángel GASCÓN SALVADOR
ENSEÑANZA Y EXPLICITACIÓN DE TEORÍAS SUBYACENTES EL CASO DE LA TEORÍA DE LA
SELECCIÓNNATURAL
Santiago GINNOBILI, Leonardo GONZÁLEZ GALLI, Yefrin ARIZA
LA TEORÍA DE LA COMUNICACIÓN DE SHANNON EN GENÉTICA MOLECULAR: UNENFOQUE
REDUCCIONISTA INFORMACIONAL
César GONZÁLEZ HERRERÍAS
LAS CREENCIAS EN LA MEDICINA TRADICIONAL MEXICANACOMO GENERADORAS DE
IDENTIDAD
Galia Alexandra GUTIÉRREZ DELGADO, Marissa ALONSO MARBÁN, Lilián Marisa MÉNDEZ RAVINA,
Gabriel Alberto AVIÑA SOLARES
UNA SOLUCIÓN A LA PARADOJA DEL VINO-AGUA DE VON MISES
Héctor HERNÁNDEZ ORTIZ, Víctor CANTERO FLORES
CIENCIA SOCIAL, SOCIOTECNOLOGÍA Y PRAXIS. UNA APROXIMACIÓN BUNGEANA A LOS
ESTILOS DE LA LABOR SOCIOLÓGICA
Germán HEVIA MARTÍNEZ
LA NOCIÓN DE PROPOSICIÓN LÓGICA DE BERNARD BOLZANO
Rodrigo LÓPEZ-ORELLANA, JUAN REDMOND
CODIFICACIÓN LÓGICA DE EXPECTATIVAS EN EL DIAGRAMA DE MARLO
Marcos Bautista LÓPEZ AZNAR
PROPUESTA DE UN MODELO INFERENCIAL DE EXPECTATIVAS EN RED
Marcos Bautista LÓPEZ AZNAR
INFERENCIA LÓGICO MATEMÁTICA EN REDES MARLO
Marcos Bautista LÓPEZ AZNAR
UNA SEMÁNTICA TETRAVALUADA PARA EL RAZONAMIENTO COMPUTACIONAL
Sandra María LÓPEZ VELASCO
¿EN QUÉ CONSISTE ARGUMENTAR?
Huberto MARRAUD
CRISIS, REFINAMIENTO O CAMBIO DEL PARADIGMA GENÉTICO EN LA ERA POST-GENÓMICA
Pedro MARTÍNEZ-GÓMEZ, Ana CUEVAS, María CEREZO
LA AGENCIA DE LOS ARTEFACTOS: ENTRE EL INSTRUMENTALISMO Y LA SIMETRÍA
GENERALIZADA
Alvaro MONTERROZA-RIOS
LA AGENCIA ARGUMENTATIVA Y SUSEFECTOS INSTITUCIONALES
María G. NAVARRO
DEL ARGUMENTAR AL RAZONAR Y VUELTA AEMPEZAR
Paula OLMOS
SOBRE LA EVOLUCIÓN DEL CONCEPTO DE LÓGICA EN EL SIGLO XX
Diego PINHEIRO FERNANDES
SIMULACIONES DE LA QUÍMICA COMPUTACIONAL EN LAS PRÁCTICAS DE LABORATORIO
MARÍA SILVIA POLZELLA, Penélope LODEYRO
EL CONCEPTO DE VALIDEZ LÓGICA EN CRÍSIPO Y LOS ESTOICOS
Alejandro RAMÍREZ FIGUEROA
LA INDAGACIÓN: UNA PROPUESTA INNOVADORA EN LA ENSEÑANZA DE LAS CIENCIAS
EXPERIMENTALES
Iván REDONDO ORTA
INFORMACIÓN BIOLÓGICA Y BIOLOGÍA SINTÉTICA
Walter RIOFRÍO RÍOS
LAS ROSAS SON ROJAS Y EL DOLOR (NECESARIAMENTE) DESAGRADABLE
Abraham SAPIÉN CÓRDOBA
NO ESTIEMPO DE MUROS
Jorge SENIOR MARTÍNEZ
EL PROBLEMA DE MARCO: ENTRE PROCESOS INCONSCIENTES Y TOMA DE DECISIONES
Silenzi María INÉS, José AHUMADA
IMPORTANCIA DE LA FILOSOFÍA DE LA CIENCIA PRESENTE EN LA FORMACIÓN INICIAL DEL
PROFESORADO CHILENO
Estela SOCÍAS MUÑOZ
LA CONSTRUCCIÓN DE AGENTES COLECTIVOS A TRAVÉS DE LA DELIBERACIÓN
Luis VEGA REÑÓN
EXPERIMENTACIÓN, CAMBIO CONCEPTUAL Y NEUROCIENCIAS VISUALES
A. Nicolás VENTURELLI
UNDIÁLOGO SOBRE EL INNATISMO EN LOS CONCEPTOS A PARTIR DEJERRY A. FODOR
Franc ZAFRA ROBERT
III. FILOSOFÍA GENERAL DE LA CIENCIA
EXISTENCIA Y VERDAD TENSELESS
Sebastián ÁLVAREZ TOLEDO
EFECTIVIDAD, COMPUTACIÓN Y MÁQUINAS
Javier BLANCO, Pío GARCÍA, Dario SANDRONE
LA ESTRUCTURA DE LAS REVOLUCIONES KUHNIANAS
María CAAMAÑO ALEGRE
¿ES IMPRECISO EL SIGNIFICADO DE UN TÉRMINO T-TEÓRICO?
José L. FALGUERA
LA CIENCIA DE ALEXANDERVONHUMBOLDT: EN BUSCA DE LA UNIDAD DE LA NATURALEZA
Thomas HEYD
VERIFICACIÓN Y VALIDACIÓN EN SIMULACIONES COMPUTACIONALES: IDEALES EPISTÉMICOS
Y PRÁCTICAS METODOLÓGICAS
Andrés A. ILCIC, Pío GARCÍA, Marisa VELASCO
VENTAJAS DE LA ARQUITECTÓNICA ESTRUCTURALISTA PARA UNA ADECUADA COMPRENSIÓN
DE LA ESTRUCTURA GLOBAL DE LASTEORÍAS CIENTÍFICAS
Juan Manuel JARAMILLO URIBE
LO QUE NOS DEJAMOS EN EL TINTERO AL REDACTAR AN ARCHITECTONICFOR SCIENCE
C. Ulises MOULINES
VÍNCULOS INTERTEÓRICOS DE LA CONTABILIDAD POR PARTIDA DOBLE
José Luis PUNGITORE
EL EXTRAÑO CASO DEL DR. HARMAN Y LA INFERENCIA A LA MEJOR EXPLICACIÓN.
PRESUPUESTOS Y ERRORES
Alger SANS PINILLOS
EL COMPROMISO REALISTA DE LOS GÉNEROS NATURALES EN LA FILOSOFÍA DE LA CIENCIA
Jaime SOLER PARRA
IV. HISTORIA DE LA CIENCIA
«FILOSOFÍA DEL ENTENDIMIENTO» DE ANDRÉS BELLO Y SU MUY LIMITADA RECEPCIÓN
FILOSÓFICA
Andrés BOBENRIETH M.
CICLO EPISTÉMICO. EL ORIGENTECNOLÓGICO DEL CONOCIMIENTO MÉDICO
Raul I. CHULLMIR, Cesar J. LORENZANO
EMILIO HERRERA LINARES Y SU «MODELO COSMOLÓGICO» ENTRE DESCARTES Y EINSTEIN
Álvaro GONZÁLEZ CASCÓN
LA CONCEPCIÓN PENDULAR DE LA ASTRONOMÍA EN CALDERÓN
María Dolores GONZÁLEZ RODRÍGUEZ
POLIZONTES SINFRONTERA. LOS CHARLATANES Y LOS LÍMITES DE LAS HISTORIOGRAFÍAS
NACIONALES
Irina PODGORNY
CAMBIO Y RACIONALIDAD EN LAS OPINIONES COSMOLÓGICAS EN LA NUEVA ESPAÑA DEL
SIGLO XVII
Edgar Omar RODRÍGUEZ CAMARENA
EVOLUCIÓN HISTÓRICA DE LA GAMIFICACIÓN EDUCATIVA
DIEGO VERGARA RODRÍGUEZ, ANA ISABEL GÓMEZ VALLECILLO, PABLO FERNÁNDEZ ARIAS
INTRODUCCIÓN
RESUMEN: Desde la década de los 80 las políticas científicas neoliberales han puesto el énfasis
más en la creación de valor comercial que en la consecución del bienestar social, se ha
fomentado el uso de patentes más que la difusión abierta del conocimiento y se ha promovido
la inversión privada en las universidades y en los proyectos de investigación, con objeto de
favorecer aquellas líneas de investigación de mayor aplicación comercial. Aunque
contrariamente a lo que suele aducirse no ha existido nunca una época gloriosa de la ciencia en
que esta estuviera libre de influencias políticas, económicas o sociales, los cambios que se están
produciendo en los últimos años son trascendentales. El objetivo de este trabajo es ofrecer una
panorámica sintética y estructurada de las transformaciones de la ciencia contemporánea
como consecuencias de las políticas y prácticas neoliberales, haciendo especial hincapié en
aquellas que afectan a los métodos y productos de la actividad científica. Uno de los fenómenos
más importantes, en este terreno, es la producción sistemática, no ya del conocimiento, sino de
la ignorancia o de la duda respecto a conocimientos ya consolidados – el objeto de estudio de la
denominada agnotología.
Palabras clave: Neoliberalismo; investigación científica; mercantilización; privatización;
agnotología.
1. INTRODUCCIÓN
E l neoliberalismo constituye tanto una ideología como un conjunto de prácticas,
sociedades contemporáneas
fundamentalmente económicas
desde
y políticas,
la décadaquedeestá
los marcando
80 del siglo
el devenir
pasado de
y las
que
define la nueva versión del capitalismo en la era de la globalización. El origen de la
ideología neoliberal se remonta, sin embargo, a los años 30 del siglo pasado y está
ligado a figuras como Milton Friedman, Ludwig von Mises, Friedrich Hayek y Murray
Rothbard. Curiosamente, unos de los primeros autores en comprender la naturaleza
radical y las profundas implicaciones políticas y sociales del neoliberalismo fue, a
finales de los 70, el filósofo Michel Foucault, en su obra sobre la génesis de la
biopolítica (Foucault 2009).
El neoliberalismo es, en realidad, una ideología muy sofisticada – a menudo,
mucho más sofisticada que las críticas que recibe desde la izquierda tradicional. No
constituye, sin embargo, un corpus absolutamente coherente; un rasgo que
posiblemente le otorga una flexibilidad muy útil para su amplia penetración social,
pero que dificulta su caracterización en poco espacio.
A diferencia de la visión liberal, en que el mercado se entiende por oposición al
Estado, en el paradigma neoliberal el objetivo es introducir la lógica del mercado –la
competencia– en todos los ámbitos de la sociedad; no sólo en el económico o
productivo, sino en la educación, la cultura, los servicios públicos o la propia
experiencia vital. Una tarea para la cual el Estado y las administraciones públicas
devienen instrumentos esenciales (Dardot y Laval 2014).
El liberalismo promueve una retirada (mayor o menor, según las versiones más o
menos socialdemócratas de que se trate) del Estado frente al mercado – mediante la
privatización de los servicios y bienes públicos, fundamentalmente. Para el
neoliberalismo, en cambio, aunque también se apoyan e incentivan los procesos de
privatización, lo esencial es la extensión de la lógica del mercado a toda la vida social,
incluyendo al propio Estado. No se trata, por lo tanto, del simple laissez faire o de
limitar la intervención del Estado en la economía, sino de facilitar la intervención
política para introducir la lógica de la competencia en todos los ámbitos posibles y
reconfigurar, así, las relaciones sociales y económicas. El Estado dejar de ser ese
mecanismo casi residual que únicamente debe paliar los efectos sociales nocivos del
mercado, sino un agente poderoso que debe anular los mecanismos anticompetitivos
de la sociedad. El mercado no es ya una institución espontánea o natural: es un ente
artificial que debe ser creado y modelado políticamente de forma incesante. No es un
mero lugar de intercambio de mercancías, sino un procesador de información: es, por
encima de todo, un mercado de ideas y, por tanto, también ¡un fenómeno epistémico!
La unidad morfológica básica de la sociedad neoliberal es la empresa. Se trata, por
lo tanto, de construir una trama social en que las unidades fundamentales tengan la
forma de la empresa o se comporten y funcionen como si lo fueran. La familia, la
universidad, la escuela, el teatro, etc., deben gestionarse como empresas y sus agentes
–madres profesoras, investigadoras, creadoras, etc.– han de devenir empresarias o
emprendedoras. El componente subjetivo del neoliberalismo se muestra en la figura del
emprendedor –y no la del mercader o la del consumidor– que se ve a sí mismo como
empresa-marca, como empresario de sí mismo y que adopta como valores esenciales
la flexibilidad y la capacidad de adaptación (frente a los cambios en mercado), la
destreza para venderse y la habilidad para competir. Como dijo una vez Margaret
Thatcher «economics are the method: the object is to change the soul».
2. CIENCIA Y NEOLIBERALISMO
La pregunta que se han planteado diferentes autores (principalmente desde los
estudios de ciencia y tecnología, STS) es si el neoliberalismo está afectando de alguna
manera a la ciencia contemporánea. La tesis básica de investigadores como Philip
Mirowski (2011) es que no sólo la está afectando sino que, de hecho, hemos entrado
desde principios de los 80, en una nueva fase histórica en la organización de la ciencia
y de sus relaciones, principalmente con la industria, las finanzas y el Estado.
Las transformaciones a que nos referimos han sido conceptualizadas durante los
últimos años con expresiones como capitalismo académico, academia acelerada,
capitalismo cognitivo, universidad-empresa o ciencia neoliberal. Todas ellas ponen el
énfasis, por un lado, en la creciente subordinación de la ciencia a los intereses
privados (principalmente, de empresas y grandes corporaciones) y, por otro, a la
reestructuración de la actividad científica en base a la lógica de la competencia y a la
comercialización de sus resultados (Pellizzoni y Ylönen 2012; Pestre 2003; Radder
2010).
Es necesario recordar, en este sentido, que más de dos tercios de la investigación
científica actuales son de carácter privado (OECD 2015): o bien se llevan a cabo en el
seno de empresas y organismos privados, o se desarrollan, con fondos privados,
dentro de instituciones públicas como universidades (a través de investigación
contratada, de doctorados industriales, de convenios de colaboración con empresas,
etc.). De hecho se observa un decrecimiento continuo en la financiación pública de la
investigación durante las últimas tres décadas. El equilibrio entre ciencia pública y
privada, que existió a lo largo de la mayor parte del siglo XX, se ha roto en beneficio
de la segunda (David 2004) y hay que tener en cuenta que la ciencia privada es, en
gran parte, ciencia propietaria y cerrada, es decir, que no permite el acceso libre a sus
contenidos o resultados.
La transformación neoliberal de la ciencia contemporánea afecta especialmente a
las universidades, que se conciben y gestionan, cada vez más, como empresas o
corporaciones multinacionales (Halffman y Radder 2015). Los organismos de decisión
y de poder en la universidad están pasando del sector académico al administrativo –
en EEUU desde el 2006, por ejemplo, el porcentaje de personal fijo en el sector
administrativo supera al académico en la mayoría de las universidades y, en éste, se
aprecia una creciente polarización entre una pequeña élite de profesores bien
pagados y con recursos y una mayoría de personal académico precarizado y a penas
sin recursos. Se está produciendo, igualmente, una separación creciente entre la
función docente y la investigadora de las universidades. Estas compiten entre sí por
captar estudiantes (tratados como «clientes»), las titulaciones se consideran
«productos» a comercializar y el lenguaje y las técnicas propias del management
inundan todos los rincones de la academia.
3. LA PRIVATIZACIÓN DE LA CIENCIA
La privatización del conocimiento científico se ha facilitado y acelerado,
principalmente, a través del fortalecimiento de las leyes de propiedad intelectual. Se
están privatizando, no sólo los resultados, sino las herramientas e instrumentos de
investigación (tests, procedimientos de medida, etc.): durante el período 1990-2004 la
mitad de las patentes en biotecnología en EEUU eran ya de este segundo tipo
(Mirowski 2011).
En general se observa una progresiva subordinación de la investigación a intereses
empresariales privados –una situación especialmente notable en el ámbito biomédico.
Por poner sólo dos ejemplos, la prestigiosa revista New England Journal of Medicine
retiró en 2002 su estricta política sobre el conflicto de intereses por la dificultad
creciente de encontrar revisores, para artículos sobre nuevos medicamentos, sin
vínculos con la industria farmacéutica. Los denominados autores fantasma –científicos
que, a cambio de una suma de dinero, ceden su firma sin haber participado en la
investigación– aparecen ya en más del 40% de este tipo de artículos que devienen, por
tanto, verdaderos publirreportajes más que verdaderos estudios científicos (Sismondo
2009).
El discurso y la lógica de la emprendimiento han colonizado el seno de la
investigación académica. Las instituciones académicas y los gobiernos promueven
cada vez más, la creación de start-ups, spin-offs y los contratos con empresas en el
entorno científico. El investigador deviene emprendedor/empresario/gestor –las
universidades organizan continuamente cursos de formación para ello– y dedica cada
vez más tiempo a promocionar su «propia marca» a través de las redes sociales
privadas (Twitter, Facebook, etc.) o de las nuevas redes sociales «académicas»
(Research.Gate, Academia.edu, Mendeley, etc.) que, en realidad y a pesar de su
engañoso nombre, son iniciativas privadas creadas por empresas de capital riesgo que
comercian con los datos que los científicos introducen sin ni siquiera leer la
condiciones de uso –enormemente abusivas– de estos servicios.
El mundo de la publicación académica está también fuertemente privatizado. Unas
pocas empresas multinacionales (Elsevier, Springer, Wiley-Blackwell, Taylor & Francis
y Sage) controlan más de la mitad de revistas científicas en todo el mundo –hasta hace
pocas décadas en manos de sociedades científicas– y obtienen márgenes de beneficio
que rondan el 40%. Su modelo de negocio se basa en no remunerar el trabajo de los
autores y revisores (investigadores todos ellos) y en cobrar subscripciones, cada vez
más caras, a las instituciones académicas en que trabajan. Esta lucrativa industria está
incluso utilizando la actual demanda de Open Access para obtener aún más ingresos
(Aibar 2014).
5. CONCLUSIONES
La colonización de la investigación científica por parte de intereses privados está
siendo promovida y potenciada por políticas científicas neoliberales que interpretan
la relevancia social de la ciencia como simple transferencia al sector empresarial
privado. Se trata de políticas científicas que incentivan el uso de patentes para
favorecer la comercialización del conocimiento, que, simultáneamente, promocionan
los sistemas de evaluación de la investigación puramente cuantitativos, promoviendo
de forma explícita la competitividad por encima de la colaboración («colaborar para
competir mejor» nos dicen) y que, mediante las llamadas políticas de la excelencia,
concentran cada vez más los recursos en unos pocos investigadores y centros de
investigación, depauperando a pasos agigantados el resto del sistema universitario
público (Quintanilla 2012).
Los estudios de diversos historiadores de la ciencia han puesto de manifiesto desde
hace tiempo que el hecho de que Galileo trabajara sucesivamente para una
universidad, a continuación para la República de Venecia y, finalmente, en la corte del
Gran Duque de la Toscana, tuvo una influencia directa en el tipo de conocimiento que
produjo en cada etapa: en los objetivos y temas que persiguió y en los métodos y
aproximaciones que utilizó (Biagoili 1993; Pestre 2005). La transformación neoliberal
de la ciencia contemporánea es, análogamente, mucho más que un simple cambio en
el modelo de financiación de la ciencia y está incidiendo de forma notoria sobre sus
contenidos, sobre el propio conocimiento científico: desde sus métodos hasta sus
resultados.
En el origen de las distintas fases históricas de la organización de la ciencia
siempre ha habido un ámbito científico que ha actuado como punta de lanza o pionero
del cambio. En la etapa de profesionalización de la ciencia, a finales del XIX, fueron la
química y la ingeniería eléctrica; en la etapa de la guerra fría lo fue la física. El giro
reciente hacia la privatización está, sin duda, liderado por el ámbito biomédico,
aunque se extiende con rapidez a todos los terrenos de la ciencia contemporánea,
incluyendo las ciencias sociales y las humanidades.
Gracias a los estudios históricos y sociológicos de la ciencia sabemos que la ciencia,
en especial la moderna y desde sus mismos orígenes, siempre ha tenido vínculos
estrechos con el poder – con el mercado, con el estamento militar, con la
administración pública, etc. Pero ello no justifica que minusvaloremos los cambios
recientes y los veamos simplemente como instancias de la condición habitual de la
empresa científica (Lave et al. 2010). Los fenómenos que estamos observando desde la
década de los 80 del siglo pasado son, tanto en profundidad como en escala,
trascendentales y apuntan hacia un cambio radical en la organización y la naturaleza
de la ciencia. Un cambio al que historiadoras, filósofas, sociólogas y economistas de la
ciencia deben prestar mucha más atención por lo que está en juego.
Tampoco debemos caer en la nostalgia de un pasado ideal o legendario, de una
supuesta época dorada de esplendor y de autonomía plena en el terreno de la ciencia
que, lo sabemos muy bien, nunca ha existido. Además, en sociedades como la
española, que han pasado en pocos años, de una universidad franquista –corrupta,
ideológicamente retrógrada y científicamente irrelevante– a un entorno académico
dominado por las políticas neoliberales, la tentación de mirar al pasado resulta aún
más peligrosa.
6. REFERENCIAS BIBLIOGRÁFICAS
Aibar, E. (2014), «Ciència oberta, encerclament digital i producció col·laborativa» en T. Iribarren, O.
Gassol y E. Aibar (eds.) Cultura i tecnologia: els reptes de la producció cultural en l’era digital, Lleida,
Punctum, 99-120. http://hdl.handle.net/10609/37641
Allington, D., Brouillette, S., Golumbia, D. (2016) «Neoliberal Tools (and Archives): A Political
History of Digital Humanities», Los Angeles Review of Books, May 1.
Biagioli, Mario (1993), Galileo Courtier: the Practice of Science in the Culture of Absolutism, Chicago,
University of Chicago Press.
Dardot, P., Laval, C. (2014), The new way of the world: On neoliberal society, London, Verso Books.
David, P. A. (2004), «Understanding the emergence of “open science” institutions: functionalist
economics in historical context», Industrial and Corporate Change, 13(4), 571-589.
Fochler, M. (2016), «Variants of Epistemic Capitalism: Knowledge Production and the Accumulation
of Worth in Commercial Biotechnology and the Academic Life Sciences», Science, Technology, &
Human Values, 41(5), 922-948.
Foucault, Michel (2009), Nacimiento de la biopolítica, Madrid, Akal.
Greenhalgh, S. (2016) «Neoliberal science, Chinese style: Making and managing the “obesity
epidemic”», Social Studies of Science, 46(4), 485-510.
Halffman, W., Radder, H. (2015), «The academic manifesto: From an occupied to a public
university», Minerva, 53(2), 165-187.
Lave, R., Mirowski, P., Randalls, S. (2010), «Introduction: STS and neoliberal science», Social Studies
of Science, 40(5), pp. 659-675
Mirowski, P. (2011), Science-Mart, Harvard (Mass.), Harvard University Press.
OECD (2015), OECD Science, Technology and Industry Scoreboard 2015: Innovation for growth and society,
Paris: OECD Publishing.
Oreskes, N., Conway, E. M. (2011), Merchants of doubt: How a handful of scientists obscured the truth on
issues from tobacco smoke to global warming, New York, Bloomsbury Publishing.
Pellizzoni, L., Ylönen, M. (2012), Neoliberalism and technoscience: Critical assessments, Farnham,
Ashgate Publishing.
Pestre, D. (2003), Science, argent et politique: un essai d’interprétation, París, Editions Quae.
Pestre, D. (2005), «The Technosciences between Markets, Social Worries and the Political: How to
Imagine a Better Future», en H. Nowotny, D. Pestre, E. Schmidt-Assmann, H. Schultze-Fielitz y
H. Trute (eds), The Public Nature of Science under Assault, Berlin, Springer, 29-52.
Proctor, R., Schiebinger, L. (eds.), (2008), Agnotology: The making and unmaking ofignorance, Stanford,
Stanford University Press.
Quintanilla, M. A. (2012), «El pensamiento científico y la ideología de izquierdas», Pensamiento
Crítico, artículo en línea, febrero, [Consulta: 24-11-2017].
<http://www.pensamientocritico.org/migqui0312.htm>.
Radder, H. (ed), The Commodification ofAcademic Research, Pittsburgh: University of Pittsburgh Press.
Sismondo, S. (2009), «Ghosts in the machine: publication planning in the medical sciences», Social
Studies of Science, 39(2), 171-198.
LOS ESTÁNDARES DE CIENTIFICIDAD
DE LA PRUEBA: DELIMITADORES
DEL CONCEPTO PROCESAL DE CIENCIA
RESUMEN: Las ciencias aplicadas son cada vez más utilizadas por la judicatura como principal
vía de acceso al conocimiento de los hechos objeto de enjuiciamiento. Así lo demuestra la
creciente aparición en el proceso judicial de evidencias obtenidas a través de métodos de
investigación de base científico-forense.
Sin embargo, la legislación no contiene pautas que permitan identificar qué pruebas merecen
el calificativo de científicas y cuáles no. La principal causa de esta omisión parece tener origen
en la inexistencia de un concepto jurídico de ciencia, necesario para establecer los límites con
que trazar la forma y contenido de la prueba científica.
Solo en la jurisprudencia norteamericana pueden encontrarse ciertos criterios destinados a
determinar la cientificidad de las pruebas. Estos criterios son conocidos como estándar
jurisprudenciales de cientificidad y presentan un claro carácter heterogéneo, pues integra
múltiples elementos pertenecientes a distintas nociones de ciencia.
Mediante el análisis de tales estándares de cientificidad es posible apreciar el papel que
cumple el Derecho en la conformación del concepto de ciencia, donde lejos de concebirse como
un mero receptor pasivo, actúa como un instrumento de interacción creativa que utiliza y
modifica los conocimientos científicos según sus propias exigencias.
Palabras clave: Proceso judicial; prueba científica; ciencia; jurisprudencia; derecho procesal;
ciencias forenses.
refiere al caso Kumho Tire Co., Ltd. c. Carmichael, en el marco del cual se vuelve a
extender el ámbito de aplicación de los criterios enunciados en 1993. Esta vez respecto
de todo tipo de peritaje. El caso Kumho, sirvió al Tribunal para establecer la necesidad
de que toda pericia, independientemente de la calidad científica del método en que se
basa, sea sometida a examen según los criterios Daubert, siempre y cuando estos
resulten aplicables en función de la lógica y el sentido común. En este sentido, el
referido pronunciamiento hace hincapié en que el órgano judicial debe obrar como
gate keeper no solo cuando la prueba pericial es científica, sino en todo caso, valorando
la admisibilidad de la misma en virtud de las características particulares que ésta y la
investigación en su conjunto presentan. Por último, debe señalarse que, en clara
conexión con los criterios Daubert, la jurisprudencia canadiense también desarrollaría
en 1994 su propio estándar de cientificidad a partir del caso R. c. Mohan[15]. Estándar
que se vería a su vez complementado por lo dispuesto en los pronunciamientos
atenientes a los casos R. c. J.-L.J[16]. de 2000 y R. c. Trochym de 2007[17].
Mediante la primera de las referidas sentencias, el Alto Tribunal canadiense se
limitó a establecer los siguientes requisitos de cara a la admisión del expert testimony:
a) Que la evidencia sea relevante, b) que exista necesidad de asistir al juzgador de los
hechos, c) que no exista una regla que la excluya y d) que el testimonio o ratificación
pericial sea realizado por un experto cualificado. La segunda resolución exige,
adicionalmente a lo previamente expuesto, la necesidad de que la ciencia o técnica
deba estar fundada en planteamientos fiables, fidedignos, lo cual implica que: a) La
teoría o técnica puedan y hayan sido puestas a prueba, b) la teoría o técnica hayan
sido sujetas a revisión de la comunidad científica, a través de su publicación, c) se
conozca el margen de error potencial o la existencia de estándares al respecto y d) la
teoría sea generalmente aceptada.
El tercero de los pronunciamientos citados, matiza que no toda ciencia o técnica
debe ser motivo de escrutinio previo a su admisión, pues en algunos casos, la ciencia
goza de tal aceptación y reconocimiento general que los jueces pueden validar su uso
sin someterla a los estándares de referencia. No obstante, el órgano judicial recuerda
como el criterio sobre la fiabilidad de una determinada ciencia o técnica puede
cambiar con el transcurso del tiempo, conforme avanzan los conocimientos con que se
cuenta en relación con la ciencia o técnica de que se trate[18].
En nuestra opinión, solo en el caso Daubert, et al. c. Merrell Dow Pharmaceuticals se
establece un verdadero estándar de cientificidad de la prueba, pues la resolución
precedente (caso Frye c. Estados Unidos) acoge sin más detalle la aceptación general del
método aplicado por parte de la comunidad científica[19], mientras que los dos
pronunciamientos posteriores a ésta (casos Joiner v. General Electric y Kumho Tire Co.,
Ltd. c. Carmichael) introducen meras matizaciones en relación al ámbito de aplicación
de los criterios enunciados en 1993 y las circunstancias concretas de cada caso. Por su
parte, la jurisprudencia canadiense abraza los principales elementos presentes en la
línea previamente establecida por la doctrina jurisprudencial estadounidense, sin
introducir modificaciones reseñables en los mismos más allá de insistir en la
necesidad de valorar la pertinencia de la prueba previamente a proceder al examen de
su cientificidad.
4. A MODO DE CONCLUSIONES
Como no podía ser de otro modo, pues el derecho procesal se encuentra huérfano
de los instrumentos epistemológicos necesarios para desarrollar su propio concepto
de ciencia autónomamente, en el proceso de elaboración de los mencionados
estándares de cientificidad de la prueba la judicatura se ha servido de los planteamientos
enunciados por distintos modelos históricos de ciencia, dando lugar a un collage de
exigencias donde se entremezclan criterios de legitimidad o justificación de muy
diferente naturaleza. De este modo, en las citadas sentencias pueden encontrarse
vinculados aspectos tales como la corroborabilidad empírica con la aquiescencia de la
comunidad científica, la fundamentación lógica de la teoría con su reconocimiento
social o el desarrollo experimental del método con la existencia de entidades que
garanticen su calidad. En este sentido, el concepto jurídico de ciencia construido por
la jurisprudencia presenta un claro carácter heterogéneo, pues integra multiplicidad
de elementos pertenecientes a distintas nociones de ciencia, enunciadas por
diferentes teorías desarrolladas a lo largo de la historia desde epistemologías dispares,
sin asumir íntegramente los postulados de ninguna de ellas.
No obstante, lejos de ser una contraventaja, la ambivalencia teórica que muestra el
concepto jurídico de ciencia resulta especialmente acertada si se tiene en cuenta el
carácter irresoluble del problema al que pretende hacer frente. Ante un paradigma de
pensamiento en constante cambio, cuyos límites resultan difusos incluso para
aquellos campos del pensamiento centrados en su estudio, parece acertado que el
Derecho adopte una perspectiva lo más multidisciplinar posible, actualizando sus
planteamientos a medida que las tendencias científicas y filosóficas cambian.
5. REFERENCIAS BIBLIOGRÁFICAS
Alcoceba Gil, Juan M. (2016), Ciencia y Proceso Penal: La prueba de ADN en el Proceso Penal Español,
Madrid, Universidad Carlos III, 1 vol.
Gascón Abellán, Marina (2010), Validez y valor de las pruebas científicas: la prueba del ADN [en línea].
Universidad de Castilla-La Mancha [fecha de consulta: 19 de noviembre de 2017]. Disponible en:
http://www.uv.es/CEFD/15/gascon.pdf
Gómez Sánchez, Yolanda (2008), «La protección de los datos genéticos: El derecho a la
autodeterminación informativa», Derecho y Salud 16 (Extra 1), 59-78.
Goslinga Remírez, Lorena (2008), «Derecho, ciencia, y tecnología en la Suprema Corte Canadiense:
Estándares para la admisión de evidencia científica y técnica». Scjn.gob,. [en línea]: Disponible
en http://www.scjn.gob.mx/Transparencia/Lists/Becarios/Attachments/77/Becarios_077.pdf
Gutheil, T G. y Bursztajn, HJ., (2005) «Attorney Abuses of Daubert Hearings: Junk Science, Junk Law,
or Just Plain Obstruction?», Journal of the American Academy of Psychiatry and the Law, 33 (2), 150
152.
Hart, Herbert Lionel A. (1968), El Concepto de Derecho, 2.ª edición, Buenos Aires: Abeledo Perrot.
Iturralde Sesma, Victoria (1991), «Sobre el silogismo judicial», Anuario de filosofía del derecho VIII (8),
239-272.
Pons, Teresa (2015), «Ciencia forense: de la teoría a la práctica», Principia, Temporada 3, Episodio 1.
Taruffo, Michele (2009), La prueba, Artículos y Conferencias, 1.ª edición, Buenos Aires, Metropolitana, 1
vol.
Taruffo, Michele (2011), La prueba de los Hechos, 4.ª edición, Madrid, Trotta, 1 vol.
[1] Para un análisis pormenorizado del paralelismo existente entre ciencia y proceso judicial, pude
consultarse ALCOCEBA GIL, J.M. Ciencia y Proceso Penal: La prueba de ADN en el Proceso Penal Español. Tesis
doctoral Universidad Carlos III, 2016.
[2] Siendo buena prueba de la profundidad y complejidad del debate la extensísima literatura que
existe en torno a dicha cuestión, de entre la que sobresale la obra magna de HART, L. A. El Concepto de
Derecho. Buenos Aires: Abeledo Perrot, 1992.
[3] Tesis según la cual el razonamiento efectuado por cualquiera que quiera conocer cuál es el derecho
aplicable a un caso concreto (sea con fines puramente teóricos o con propósitos prácticos) se limita a la
subsunción de unos hechos en unas normas jurídicas. Cuando tal ejercicio es realizado por el juez, podemos
referimos a dicha teoría como teoría del silogismo judicial. ITURRALDE, V. «Sobre el silogismo judicial».
Anuario de filosofía del derecho VIII. 1991. p. 241.
[4] A través de la Criminalística; campo del conocimiento que tiene por objeto la aplicación de técnicas
de investigación propias de las ciencias naturales al ámbito material de un presunto hecho delictivo con el
fin de determinar, en auxilio de los órganos encargados de administrar justicia, su existencia cierta,
reconstruirlo o señalar y precisar la intervención de uno o varios sujetos en el mismo. PONS, T. «Ciencia
forense: de la teoría a la práctica». Principia. 2015. Temporada 3. Episodio 1.
[5] Sobre el uso procesal de la ciencia como criterio de veracidad de las decisiones judiciales puede
consultarse WRÓBLEWSKI, J. «El problema de la llamada verdad judicial» en su: Sentido y hecho en el derecho.
México: Fontamara, 2003. pp. 180 y ss.
[6] Ello es así, entre otras razones debido a que: I) Frente a la amplitud de miras del científico, la
libertad del juez se encuentra limitada respecto a las cuestiones que pueden ser tratadas o abordadas en el
discurso de motivación. Solo dentro de los límites de la quaestio facti y de la quaestio iuris podrá el juez
elaborar su discurso justificativo. Por otro lado el producto de la actividad científica presenta vocación de
universalidad, mientras que el de la actividad judicial queda necesariamente circunscrito al proceso en el
que se enmarca. En este mismo sentido, las hipótesis acusatorias sobre los hechos en el proceso penal son
enunciados estrictamente existenciales (no universales), que por lo tanto no pueden ser falseados (lo cual
no implica que no puedan ser contradichos). En resumidas cuentas los instrumentos de los que el sistema
procesal dota al juez para la determinación de los hechos no poseen el rigor lógico-experimental sobre el
que ha de sustentarse la investigación científica.
[7] En este sentido, tal y como señala GASCÓN ABELLÁN, M. Validez y valor de las pruebas científicas: la
prueba del ADN [en línea]. Universidad de Castilla-La Mancha [fecha de consulta: 10 de noviembre de 2014].
Disponible en: http://www.uv.es/CEFD/15/gascon.pdf, es un sentir general el hecho de que «la prueba
científica, por estar basada en leyes universales o en todo caso en leyes probabilísticas que gozan de un
fuerte fundamento científico, aparece muchas veces rodeada de un áurea de infalibilidad que proporciona a
la decisión probatoria un carácter concluyente o casi concluyente, por lo que no parece necesario buscar
estándares adicionales que garanticen su objetividad».
[8] Sentencia FRYE c. UNITED STATES. N.º 3968. Disponible en
http://www.law.ufl.edu/_pdf/faculty/little/topic8.pdf
[9] Sentencia DAUBERT, et al. v. MERRELL DOW PHARMACEUTICALS, INC. N.º 92-102. Disponible en
https://www.law.cornell.edu/supct/html/92-102.ZS.html
[10] Sentencia GENERAL ELECTRIC CO. et al. c. JOINER et ux. N.º 96-188. Disponible en
https://www.law.cornell.edu/supct/html/96-188.ZS.html
[11] Sentencia KUMHO TIRE CO., LTD., et al. c. CARMICHAEL et al. N.º 97-1709 Disponible en
https://www.law.cornell.edu/supct/html/97-1709.ZS.html
[12] En su redacción original: «We think the systolic blood pressure deception test has not yet gained
such standing and scientific recognition among physiological and psychological authorities as would justify
the courts in admitting expert testimony deduced from the discovery, development, and experiments thus
far made».
[13] Dos madres que habían tenido hijos con malformaciones congénitas y las atribuían a la ingestión
durante el embarazo de Bendectin demandaron a la compañía farmacéutica que produjo el medicamento.
Tanto las demandantes como la compañía farmacéutica «Merrell Dow Farmaceuticals», presentaron peritos
que basaban sus opiniones en estudios epidemiológicos. Al final de todo el complejo proceso judicial el
Tribunal Supremo de Estados Unidos desestimó el testimonio de los peritos de las demandantes. GUTHEIL, T
G. y BURSZTAJN, H J. «Attorney Abuses of Daubert Hearings: Junk Science, Junk Law, or Just Plain
Obstruction?». Journal ofthe American Academy of Psychiatry and the Law. 2005, pp. 150-152.
[14] En este sentido la sentencia señala como: «Abuse of discretion-the standard ordinarily applicable
to review of evidentiary rulings-is the proper standard by which to review a district court’s decision to
admit or exclude expert scientific evidence».
[15] Sentencia R. v. Mohan, de 5 de mayo de 1994, 2 SCR 9, n.º 23063. Disponible en: https://scc
csc.lexum.com/scc-csc/scc-csc/en/item/1131/index.do
[16] Sentencia R. v. J.-L.J. de 9 de noviembre de 2000, 2 SCR 600, n.º 26830. Disponible en https://scc
csc.lexum.com/scc-csc/scc-csc/en/item/1815/index.do
[17] Sentencia R. v.Trochym, de 1 de febrero de 2007, 1 SCR 239, n.º 30717. Disponible en http://scc
csc.lexum.com/scc-csc/scc-csc/en/item/2341/index.do
[18] En este sentido, puede consultarse GOSLINGA REMÍREZ, L. «Derecho, ciencia, y tecnología en la
Suprema Corte Canadiense: Estándares para la admisión de evidencia científica y técnica». Scjn.gob, 2008.
[en línea]: Disponible en
http://www.scjn.gob.mx/Transparencia/Lists/Becarios/Attachments/77/Becarios_077.pdf,
[19] Lo cual, más que un estándar, constituye una delegación total del órgano judicial en la comunidad
RESUMEN: El propósito de este trabajo es estudiar las consecuencias del carácter neoliberal
que ha tomado la política científica europea. Para ello, en primer lugar se caracterizarán los
rasgos de la ideología neoliberal con el fin de identificar sus consecuencias en la gestión
política de la ciencia. Después, se analizarán los problemas entre este modelo de gestión, la
transición del sistema económico hacia un modelo de conocimiento, y la consecución de una
sociedad innovadora del conocimiento (objetivo del Horizonte 2020). Se abordarán así las
posibilidades para su configuración, donde la información juega un papel central que está
condicionado por las actuales formas neoliberales de producción, gestión, evaluación y difusión
del conocimiento.
Palabras clave: política científica; neoliberalismo; innovación; sociedad y economía del
conocimiento; Horizonte 2020.
1. INTRODUCCIÓN
E sta investigación conjuga los proyectos de tesis doctoral de los autores y tiene
neoliberal
como fin analizar
de la gobernanza
las consecuencias
científicaepistémicas,
europea (Lave
políticas
et al. y2010;
sociales
Mooredeletgiro
al.
2011; Pellizzoni y Ylönen 2012; Sáenz 2000). Por ello se atenderá a las implicaciones de
este modo de gestionar el conocimiento que, desde la misma lógica de la innovación,
la cual sostiene el despliegue del sistema económico en la actualidad, guía los
Programas Marco y el proyecto Horizonte 2020 (H2020) en la Unión Europea. El
surgimiento de un nuevo tipo de sociedad en que la información juega un papel
central (Beniger 1986; Floridi 2010; 2014), cómo condiciona esta nueva organización
las formas de investigación y producción del conocimiento, y las consecuencias que
todo ello supone para las políticas públicas de gestión de la ciencia, son el marco
general de este trabajo.
Hace pocos días visité en Bruselas el Atomium, la principal atracción de la
Exposición Universal de 1958 (la primera en su género tras la Segunda Guerra
Mundial). En una de las exposiciones, donde se explicaba el contexto de su
inauguración, me llamó la atención el hincapié que se hacía sobre la ciencia y la
energía atómica como emblemas de la prosperidad y de la confianza en el futuro. A
partir del estudio de la historia política de la ciencia sabemos hoy que estos lemas
responden a una concepción heredera de las ideas de Vannevar Bush, plasmadas en
Science, The Endless Frontier. Las directrices de este informe acerca de las líneas que
debía seguir la política científica tras la Segunda Guerra Mundial, ayudaron a afianzar
lo que se conoce como el «contrato social de la ciencia» (Jasanoff 2003; Mitcham y
Briggle 2007; Lengwiler 2008; Aibar 2012). Los planteamientos de Bush proponían el
reclamo de una investigación libre, financiada por el estado pero sin intervención del
mismo, hecho que se suponía debía redundar en mayor beneficio público. Desde esta
concepción, que inaugura el paradigma tecnocientífico (Echeverría 2015), los avances
se producen siguiendo la lógica del mercado, es decir, en función de su valor para el
rendimiento del sistema.
En su conferencia en Bangkok sobre soberanía económica y globalización, Susan
George advertía ya en 1999 que el neoliberalismo no llevaba solo un par de décadas
con nosotros: sus orígenes había que buscarlos remontándose más allá de 1958. No
podemos reseguir esta historia in extenso aquí, por lo que apuntamos La nueva razón del
mundo de Christian Laval y Pierre Dardot como trabajo de referencia en el estudio de
la historia del neoliberalismo. En esta obra, el origen del neoliberalismo se sitúa en
1937, en el coloquio de Walter Lippmann. El trayecto histórico continúa hasta los
economistas austríacos, la fundación de la Mont Pelerin Society y sus consecuencias
en las políticas de Reagan y Thatcher. Según los autores, esta fundación impulsó la
«gran transformación neoliberal» con la creación de una gran red internacional de
institutos, centros de investigación y publicaciones. El Banco Mundial y el Fondo
Monetario Internacional pronto formaron filas en este batallón ideológico de la
competencia extrema (dentro y fuera) de los mercados financieros. La ciencia no
tardó en caer también en esta dinámica al añadirse la innovación a la investigación y
el desarrollo. Una «i» minúscula que, como veremos, tiene consecuencias mayúsculas.
4. CONCLUSIONES
Tras esta presentación de las líneas iniciales, muchas de ellas abiertas, de nuestra
investigación, queremos dejar espacio a su discusión, a aquello que pensamos que está
pendiente de ser transitado, y también a sugerencias por parte del público que seguro
aportarán luz nueva para continuar nuestros análisis.
Después de sentar el marco teórico acerca del significado y las consecuencias del
neoliberalismo en el sistema europeo de gestión de la ciencia, y sus contradicciones
con el objetivo social del H2020, nuestro trabajo se dirige a la práctica de dichas
políticas. Analizaremos la práctica de las medidas de gobernanza europea de la ciencia
mediante el estudio de los proyectos financiados por el H2020, quiénes son los
investigadores y los centros de investigación que más fondos perciben, y el nivel de
coparticipación con la empresa privada. En segundo lugar, se establecerán
paralelismos entre el discurso H2020 y la retórica neoliberal a partir de la función que
desempeñan conceptos como «beneficio», «innovación», «desarrollo», «crecimiento»
o «competitividad» dentro del discurso europeo. En tercer lugar, considerando los
resultados de estos procesos de análisis, se describirán sus repercusiones sociales.
5. REFERENCIAS BIBLIOGRÁFICAS
Aibar, Eduard (2012), «La participación del público en las decisiones científico-tecnológicas» en
Miguel Ángel Quintanilla, Eduard Aibar (eds.) Ciencia, tecnología y sociedad, Madrid, Trotta, 303
323.
Almendros, Lola S. (2016), «Tecnociencia y democracia: problemas epistémico-políticos y
movimientos open en la consecución de sociedades del conocimiento», Revista Internacional de
Ética Aplicada DILEMATA 8 (22), 183-202. Disponible en
http://www.dilemata.net/revista/index.php/dilemata/article/viewFile/412000047/455
Beniger, James R. (1986), The revolution control. Technological and economic origins of the information
society, New York, Harvard University Press.
Benkler, Yochai (2015), La riqueza de las redes. Cómo la producción social transforma los mercados y la
libertad, Barcelona, Icaria.
David, Paul A., Foray, Dominique (2002), «Una introducción a la economía y a la sociedad del saber»,
Revista Internacional de ciencias sociales (171), Disponible en
http://www.oei.es/salactsi/rics171.htm
Echeverría, Javier (2014), Innovation and Values: A European Perspective, Reno’s Center for Basque
Studies, University of Nevada.
(2015), «De la filosofía de la ciencia a la filosofía de las tecnociencias e innovaciones», Revista
Iberoamericana de Ciencia, Tecnología y Sociedad 10(28), 109-120. Disponible en
http://www.revistacts.net/volumen-10-numero-28
(2017), El arte de innovar. Naturalezas, lenguajes, sociedades, Madrid, Plaza y Valdés.
Floridi, Luciano (2010), The philosophy ofinformation, New York, Oxford University Press.
(2014), The Fourth Revolution. How the Infosphere is Reshaping Human Reality, Oxford, Oxford University
Press.
Gurrutxaga, Ander, Echeverría, Javier (2012), La luz de la luciérnaga. Diálogos de innovación social,
Madrid, Plaza y Valdés.
Jasanoff, Sheila (2003), «Technologies of humility: citizen participation in goberning science»,
Minerva (41), 233-244.
Laval, Christian, Dardot, Pierre (2013), La nueva razón del mundo. Ensayo sobre la sociedad neoliberal,
Barcelona, Gedisa.
Lave, Rebecca, Mirowski, Philip, Randalls, Samuel (2010), «Introduction: STS and neoliberal
science», Social Studies of Science 40(5), 659-675.
Lengwiler, Martin (2008), «Participatory Approaches in Science and Technology: Historical Origins
and Current Practices in Critical Perspective», Science, Technology and Human Values (33), 186
200.
Mitcham, Carl, Briggle, Adam (2007), «Ciencia y política: perspectiva histórica y modelos
alternativos», Revista CTS 8(3), 143-158.
Moore, Kelly, Lee Kleinman, Daniel, Hess, David y Frickel, Scott (2011), «Science and neoliberal
globalization: a political sociological approach», Theory and Society 40(5), 505-532.
Oblomoff, (2014), Un futuro sin porvenir. Por qué no hay que salvar la investigación científica, Madrid,
Ediciones el Salmón.
Pacho, Julián (2009), «Imágenes del mundo y el mundo de los lenguajes. En torno a racionalidad,
arte y cultura», en Aguirre et al. (eds.), Racionalidad, Visión, Imagen, Madrid, Plaza y Valdés, 119
134.
Pellizzoni, Luigi, Ylönen, Marja (eds.) (2012), «Introduction», en Neoliberalism and Technoscience:
Critical Assesments, Farnham, Ashgate Publishing, 1-24.
Quintanilla, Miguel Ángel (2015), «Algunos retos filosóficos de la política científica», Revista
Iberoamericana de Ciencia, Tecnología y Sociedad 10(28), 91-108. Disponible en
http://www.revistacts.net/volumen-10-numero-28
Sáenz, José Félix (2000), «Evolución del sistema de ciencia, tecnología e industria en el mundo y en
la UE», Llull (23), 399-429. Disponible en https://dialnet.unirioja.es/servlet/articulo?
codigo=62252
Sannazzaro, Jorgelina (2016), «Citizen cartography, strategies of resistance to established
knowledge and collective forms of knowledge building», Public Understanding of Science (25),
346-360.
Van der Hove, Sybille, McGlade, Jacqueline, Mottet, Pierre y Depledge, Michael H. (2012), «The
Innovation Union: a perfect means to confused ends?», Environmental Science & Policy, (16), 73
80. Disponible en https://www.sussex.ac.uk/webteam/gateway/file.php?name=vandenhove
et-al-innovation-2012.pdf&site=25
Von Schomberg, René (2013), «A Vision of Responsible Research and Innovation», en Owen,
Richard, Bessant, John y Heintz, Maggy (eds.), Responsible Innovation, NYSE, John Wiley & Sons.
Disponible en http://www.rri
4ad8-89bf-f962714a1454
tools.eu/documents/10184/106979/VonSchomberg2013_AVisionofRRI.pdf/f39a800d-6a51-
REVISIÓN DE LA DICOTOMÍA ONTODEÓNTICA EN VISTA A
UNA AXIOLOGÍA DE LAS CIENCIAS. EL CASO DE LA
INVESTIGACIÓN
CON CÉLULAS MADRES
1. INTRODUCCIÓN
E l autor emblemático, que se ha ocupado en profundizar en esta dicotomía
ontodeóntica es Hilary Putnam quien en su ya clásico libro El desplome de la
dicotomía hecho-valor (2014) recorre la historia de esta dicotomía para señalar
que fructificó dentro de la tradición empirista y sus representantes han hecho de este
tema un bastión a defender. Para reforzar la polarización de la dicotomía recurren a
una nueva, la dicotomía analítico-sintético que ha sido motivo de debates y
divergencias incluso dentro de esta tradición. Los positivista lógicos asumieron la
distinción tripartita entre juicios sintéticos (verificables o falsables empíricamente)
los juicios analíticos (verdaderos o falsos por aplicación de reglas lógicas) y los juicios
carentes de valor cognitivo (juicios éticos, estéticos y religiosos). Como señala
Putman, el interés de uno de los representantes de esta corriente, Rudolf Carnap, es el
de expulsar a la ética del dominio del conocimiento y si bien se advierte la necesidad
de adaptar el criterio de verificabilidad a los términos teóricos de la física de las
primeras décadas del siglo XX, que desafiaban su criterio de demarcación entre
ciencia y no ciencia, no cambió el criterio mediante el cual excluye a los valores del
dominio del conocimiento racional al considerar que el lenguaje de la ciencia es el
único lenguaje cognitivamente significativo. Con razón, Javier Echeverría señala el
imperativo de estos autores: «No mezclar cuestiones morales y argumentos
científicos» que fue asumido como un mandato explícito para la epistemología
empirista de gran parte del Siglo XX, inspirados a afirmaciones de Hume y de Locke.
En el campo de la Ética los vínculos entre lo ético y lo extraético, entre la
normatividad y la facticidad han dado pie a múltiples argumentos (Ambrosini 2011).
Javier Echeverría, desde los años noventa, aboga por una Axiología de las ciencias en
donde encuentra que el gran reto de la epistemología contemporánea es el de ayudar
a teorizar sobre la acción de los científicos y tecnólogos en la medida en que los
procesos de cambios científicos-tecnológicos se proyectan en los cambios económicos
y sociales. Como afirma Echeverría podemos hacer la política del avestruz, que es
meter la cabeza bajo la tierra o involucrarnos en temas de filosofía de la práctica
tecnocientífica. No debemos obviar que toda innovación tecno-científica es una
mercancía y que como tal forma parte de una tecnoempresa que recibe financiación
pública o privada. En el caso de Argentina el 80% de la financiación proviene del
sector público lo que demanda una mayor atención a la valoración de estas
innovaciones. Actualmente el conocimiento más valorado es el que genera tecnología
e innovación. Las tecnociencias son prácticas híbridas, científicas y tecnológicas, pero
también económicas, jurídicas, políticas, publicitarias y, en ocasiones, militares. No
sólo intervienen en ellas científicos e ingenieros, sino también otros tipos de agentes,
los cuales aportan diferentes culturas, intereses, objetivos y sistemas de valores. Las
tecnociencias no sólo pretenden describir, explicar y comprender el mundo, sino que
su objetivo principal es transformarlo y generar innovaciones. El conocimiento
científico tiene valor en ellas, pero vale más si genera desarrollos tecnológicos e
innovaciones (Echeverría 2016). Así, se abre la posibilidad de un aporte
interdisciplinario donde filósofos, científicos y políticos pueden contribuir unos a
otros en el análisis de los complejos problemas que aquejan a nuestras sociedades. La
tecnociencia entonces es más un «saber hacer», donde se presentan conflictos de
intereses que pueden ser tematizados desde una axiología. Frente al ideal de la ciencia
neutra, con su separación estricta entre hechos y valores, este enfoque busca
herramientas conceptuales para dilucidar los modos de producción tecno-científica
que caracterizan a esta nueva etapa en la producción de conocimientos. Desconocer
este complejo entramado de valoraciones en tensiones y pugnas implica restar
elementos para juzgar la actividad científica como una forma de producción social
(Ambrosini y Beraldi 2014). Esto lleva a mostrar la presencia de «crisis axiológicas»
que aquejan a los científicos, que no son crisis epistémicas sino prácticas, en el sentido
ético-político. No es que haya dudas acerca de los fundamentos teóricos de las teorías
sobre las que trabajan sino acerca del beneficio de estas teorías para las personas o el
medio ambiente o para las sociedades de las que forman parte. Otra fuente de
discordancias y debates es acerca de la rentabilidad y el impacto económico y social
de la aplicación de conocimientos científicos.
3. CONCLUSIONES
Tomamos el ejemplo de la investigación con células madre para mostrar los
siguientes problemas:
4. BIBLIOGRAFÍA
Ambrosini Cristina, Beraldi, Gastón, (2015), Pensar la ciencia hoy. La epistemología: entre teorías, modelos
y valores, Buenos Aires, Editorial Educando
Ambrosini, Cristina, (2011), «Ética profesional. La ética como mecanismo compensatorio en el
mundo globalizado», en Revista Perspectivas metodológicas N.º 11, UNLa noviembre de 2011, pp.
23-38
Echeverría Javier, (2013), Entre cavernas. De Platón al cerebro, pasando por Internet, Madrid,
Triacastela
Echeverría Javier, (2017), «Epistemología y axiología de la tecnociencia: tecno-mundos y tecno
personas», entregado para editar en Modulaciones epistemológicas IV: tradiciones y rupturas,
Ambrosini Cristina, Mombrú, Andrés, Mendez, Pablo, compiladores, Remedios de Escalada,
EDUNLa, en prensa
Echeverría, Javier (2010), «De la filosofía de la ciencia a la filosofía de la tecnociencia», en Revista
Internacional de Filosofía, N.º 50, pp.31-41
Echeverría, Javier (1995), «El pluralismo axiológico de la ciencia», ISEGORíA/12 pp. 44·79
Echeverría, Javier (2005), «La revolución tecnocientífica», en CONfines, 1/2 agosto-diciembre, pp. 9
15
Echeverría, Javier (1999), Introducción a la metodología de la ciencia. La filosofía de la ciencia en el siglo
XX, Madrid, Cátedra,
Putnam, Hilary, (2004), El desplome de la dicotomía hecho-valor, Barcelona, Paidós, disponible en
http://myslide.es/documents/putnam-hilary-el-desplome-de-la-dicotomia-hecho-valor-y
otros-ensayospdf.html
Comisión Asesora en Terapias Celulares y Medicina Regenerativa: «Lo que hay que saber sobre las
células madre», Disponible en: http://www.incucai.gov.ar/files/docs-incucai/Celulas
madre/02-Celulas_Madre_lo_que_hay_que_saber.pdf
Guía para la traslación clínica de células madre, Disponible en: http://www.isscr.org/docs/default
Tratamientos
source/clin-trans-guidelines/isscr_guia_paciente_final.pdf
experimentales con células madre. Disponible en:
http://www.incucai.gov.ar/index.php/prensa/archivo-de-noticias/20-institucional/lineas-de
accion/71-tratamientos-experimentales-con-celulas-madre
Pfeiffer, María Luisa (2014), «Aspectos éticos del uso de células madre» en Cuadernos de Ética, Vol
29 N.º 42. Disponible en: http://aaieticas.org/revista/index.php/cde/article/view/55/109
Código Civil y Comercial. Disponible en:
http://www.scba.gov.ar/leyorganica/CCyc30/CODIGO30.html
Declaración acerca de la guarda de células madre de sangre de cordón umbilical, disponible en:
http://www.mincyt.gob.ar/informes/declaracion-acerca-de-la-guarda-de-celulas-madre-de
sangre-de-cordon-umbilical-8035
Declaración de Helsinki, Disponible en: http://www.wma.net/es/30publications/10policies/b3/
Documento de la Comisión Asesora en Terapias Celulares y Medicina Regenerativa del Ministerio de
Ciencia, Tecnología e Innovación Productiva, disponible en:
http://www.celulasmadre.mincyt.gob.ar/celulasmadre.php
Guía para Investigaciones con Seres Humanos, resolución 1480/2011, ministerio de salud (M.S.)
Disponible en: http://test.e-legis-ar.msal.gov.ar/leisref/public/showAct.php?id=18264
Guidelines for stem cell research and clinical translation (ISSCR – internacional sociaty ofstem cell
research), Disponible en: http://www.isscr.org/docs/default-source/guidelines/isscr
guidelines-for-stem-cell-research-and-clinical-translation.pdf?sfvrsn=2
Homedes, A., Ugalde, N, América Latina: la Acumulación de Capital, la Salud y el Papel de las
Instituciones Internacionales. Disponible en: http://www.scielo.org.ar/scielo.php?
script=sci_arttext&pid=S1851-82652007000100003
Homedes, A., Ugalde, N, Cuatro palabras sobre ensayos clínicos: ciencia/negocio, riesgo/beneficio.
82652011000200002
Disponible en: http://www.scielo.org.ar/scielo.php?script=sci_arttext&pid=S1851-
3(6). https://doi.org/10.17160/josha.3.6.242
Ministerio de Ciencia, Tecnología e Innovación Productiva, Presidencia de la Nación: «Claves para el
debate sobre células madre», 2009, Disponible en: http://www.mincyt.gob.ar/publicaciones
listado?idCategoria=&idCategoria2=185
Pautas éticas internacionales para la investigación biomédica en seres humanos. Consejo de
Organizaciones Internacionales de las Ciencias Médicas (CIOMS) en colaboración con la
Organización Mundial de la Salud, Ginebra, 2002, Disponible en:
http://www.cioms.ch/publications/guidelines/pautas_eticas_internacionales.htm
¿ESUNA DECISIÓN RACIONAL (NO) VACUNARSE?
RESUMEN: La vacunación implica asumir un riesgo a sopesar ante al riesgo de contagio por
esa enfermedad y en el que el resultado de la opción que se adopte depende también de las que
adopten otros miembros de la colectividad, lo que permite el análisis desde la teoría de juegos
estudiando las posibles decisiones de agentes racionales enfrentados y cuyas acciones
dependen de las que ejecuten los oponentes y donde las opciones de cooperar o defraudar
configuran una matriz de pagos que debería servir de guía para tomar una decisión al respecto.
La tentación de no vacunarse evitando el riesgo propio a costa del que asumen otros depende
de los valores particulares de la matriz de pagos y va más allá del esquema del dilema del
prisionero simple por tratarse de la interacción entre tres tipos posibles de actores, vacunados,
no vacunados sanos e infectados, en una sucesión de múltiples encuentros por parejas entre los
miembros del grupo. Estas condiciones plantean la posibilidad de utilizar un entorno de
modelización programable como NetLogo para explorar los parámetros implicados y obtener
un mapa o espacio de fases que pueda orientar sobre la racionalidad de cada estrategia para
cada conjunto de parámetros.
Palabras clave: ciencia; tecnología; filosofía; racionalidad científica.
1. LA TOMA DE DECISIONES
Todas las decisiones que un ciudadano se plantea representan siempre un
problema con distintos grados de complejidad dependiendo de la trascendencia y
alcance del resultado de esa decisión y de las relaciones entre costes y beneficios,
preferencias, valores e información disponible sobre cada una de las posibles
opciones; este problema se establece generalmente de una forma más acusada cuando
las decisiones están relacionadas con cuestiones en las que la ciencia y la tecnología
están implicadas.
En este tipo de decisiones además de la pura decisión racional en lo que respecta al
balance entre ventajas, inconvenientes y costes de cada una de las alternativas,
intervienen también la cantidad y sobre todo calidad de la información y
conocimiento disponible junto con los componentes valorativos, los ideológicos y todo
un conjunto que podemos incluir en el entorno sociogrupal y económico del
ciudadano correspondiente. Evidentemente para el individuo son de máxima
trascendencia aquellas que pueden incidir en su bienestar, su salud o incluso en su
supervivencia de forma directa como pueden ser las relacionadas con la aceptación o
rechazo de determinadas terapias tanto curativas como preventivas.
TABLA 1 Prisionero B
No delata Delata
TABLA 2 Ciudadano B
Inmunizado No inmunizado
7. REFERENCIAS BIBLIOGRÁFICAS
Bauer, Martin W., Shukla, Rajesh y Allum, Nik (eds.) (2012), The Culture of Science: How the Public
Relates to Science Across the Globe, Nueva York, Routledge.
Cámara Hurtado, Montaña, López Cerezo, José Antonio (2015), «La población española ante el riesgo
y las aplicaciones de la ciencia, El caso de los procientíficos moderados», en Percepción de la
ciencia y la tecnología 2014, Madrid, FECYT.
Lopera Pareja, Emilia H. (2016), El movimiento antivacunas. Argumentos, causas y consecuencias, Madrid,
Los Libros de La Catarata /OEI. Serie Ensayos y Sociedad.
Poundstone, William (1995), El dilema del prisionero, Madrid, Alianza Editorial, versión española de
Prisioner’s Dilemma, John von Neumann, Game Theory and the Puzzle of the Bomb, Doubleday, (1992)
Wilensky, Uri (1999), NetLogo. http://ccl.northwestern.edu/netlogo/. Center for Connected
Learning and Computer-Based Modeling, Northwestern University. Evanston, IL.
[1] En ciertos tipos de vacunas como son algunas de las que utilizan virus atenuados es posible que el
sujeto pueda durante un corto intervalo tras la administración actuar como transmisor.
[2] En lo sucesivo seguiremos en varios aspectos el libro de W. Poundstone «El dilema del prisionero»,
donde expone una introducción a la teoría de juegos y sus consecuencias en economía o en el equilibrio
nuclear, entre otras, así como una biografía de John von Neumann y sus contribuciones en éste y otros
campos.
[3] El nacimiento de la teoría de juegos, aunque Emile Borel publicase previamente varios artículos
sobre el tema, puede fijarse en 1928 con el artículo de von Neumann «Zus Theorie der Gesellschaftpiele»
donde demuestra el teorema del minimax.
[4] La relación entre las dimensiones de la cuadrícula y la población nos da una densidad de población,
que influye en las probabilidades de encuentros y por ende de propagación de la enfermedad
TECNOLOGÍA Y CULTURA EN LOS ARCHIVOS COLATERALES
DEL ARTE CONTEMPORÁNEO
1. INTRODUCCIÓN
D historiadores
radicalmente.
esde finales de la ciencia
dEesta
los años
transformación
ochenta el concepto
ha
y la tecnología de cultura se ha transformado
sido promovida por los filósofos e
que hicieron de la cultura un factor
no arbitrario. Desde entonces, se ha hecho notar que existen diversidad de
herramientas interpretativas implicadas en las transacciones culturales que reclaman
el dominio de recursos metodológicos, nuevos instrumentos y nuevas narrativas
procedentes de diferentes campos de conocimientos.
Existen teorías interesadas en explicar el proceso creativo entre espacios
interdisciplinarios como la de actor/red de Latour (2005) o boundary objets (1989) que
analizan el proceso de la cognición como espacios de conocimiento distribuidos y
dinámicos entre todos los objetos, instrumentos y personas implicadas en ellas. El arte
de este siglo, como parte de la cultura, requiere también de nuevas propuestas
interpretativas para su entendimiento profundo. Latour y Weibel (2005), ya han
empezado a extender esas investigaciones revitalizando los conceptos
interrelacionados de cosas y opinión pública como nociones clave para el mundo
global del siglo XXI.
El tipo de práctica artística contemporánea que me interesa analizar es la que
utiliza herramientas, lenguajes, recursos científicos (sociales o naturales) y/o
tecnológicas como parte de la producción de sus obras se involucran en una serie de
actividades que provocan resultados y estímulos complejamente estéticos, porque
están movilizando cadenas de recursos (científicos, sociales, técnicos, etc.) y
capacidades variadas. Son secuencias de actos y registros, que producen resultados
con interacciones complejas, que incluye al público como participante y actor libre en
el proceso de la obra misma. El trabajo que aquí presento es el producto de resultados
parciales de investigación en curso, de un solo caso de estudio, de mi proyecto
denominado: Artes y Comunidad en proyectos artísticos que desarrollo desde hace dos
años en la Universidad Autónoma Metropolitana, Unidad Lerma. Este proyecto forma
parte del área de investigación Arte, Ciencia y Tecnología.
AGRADECIMIENTOS
Agradezco a Carolina González por la elaboración de las gráficas presentadas en
este trabajo y a Mónica Mayer por facilitarme sus archivos para el análisis de esta
investigación.
3. REFERENCIAS BIBLIOGRÁFICAS
Abad, Antoni (2014), Megafone.net, Barcelona, Turner. http://megafone.net/site/index
Candiani, Tania (2010), Otras historias, otros paseos, Ciudad de México.
http://www.taniacandiani.com/,
http://www.taniacandiani.com/Works/projects/2010/otros.html
Esparza, Gilberto (2015), Plantas Autofotosintéticas México City.
http://prix2015.aec.at/prixwinner/16228/
Galison, Peter y Biadoli, Mario (ed.) (1999), «Trading Zone: Coordinating Action and Belief», The
Science Studies Reader, London, Routledge.
Hemmer Lozano, Rafael (2008), Voz alta México City. http://www.lozano
Latour,
hemmer.com/voz_alta.php
Bruno (2005), Reassembling the Social. An Introduction to Actor-Network theory, Oxford, Oxford
University Press.
Latour, Bruno y Weibel, Peter (ed.), (2005), Making Things Public: Atmospheres of Democracy,
Cambridge, MIT press and ZKM, Center for Art and Media.
Leigh Star, Susan y Griesemer, James R. (1989), «Translations and Boudary Objets: Amateurs and
Professionals in Berkeley’s Museum of Vertebrate Zoology», Social Studies of Science (19), 387
420.
Mayer, Mónica. (2016). Si tiene dudas pregunte. México: MUAC. Obtenido de:
http://www.pintomiraya.com/pmr/pinto-mi-raya/nuestra-historia
LA FUNCIÓN NORMATIVA DE LOS ARTEFACTOS
TECNOLÓGICOS EN LAS PRÁCTICAS DE SUBJETIVACIÓN EN
CONTEXTOS DE DESIGUALDAD DE GÉNERO
RESUMEN: A la hora de presentar la cuestión del papel que los artefactos tecnológicos tienen
en los procesos de constitución de subjetividad en las sociedades contemporáneas, suelen
distinguirse, por lo general, dos tipos de posiciones, ninguna de las cuales permite dar cuenta
del rol activo que las tecnologías tienen sobre la subjetividad. De un lado, hay quienes
defienden que los artefactos tecnológicos tienen un papel pasivo (meramente instrumental) en
los procesos de devenir sujeto. De otro lado, están quienes defienden que el uso de la tecnología
anula la subjetividad.
Frente a esta disyuntiva, la filosofía de la tecnología contemporánea está generando un
nuevo marco de interpretación en el que ni el sustantivismo en su formulación tradicional, ni
el instrumentalismo, son concepciones válidas para explicar el papel activo de los artefactos en
las prácticas de subjetivación.
Partiendo de dicho marco, se analiza el papel de los artefactos tecnológicos en los procesos
de constitución de la subjetividad en contextos de opresión; concretamente en contextos de
patriarcales, en los que la normatividad de género es activada mediante la realización de
prácticas de interacción con los artefactos tecnológicos, generando modelos de subjetividad
estructuralmente pre-configurados.
La noción de colaborador, desarrollada por Sally Haslanger a propósito de los procesos de
objetivación, aplicada a los artefactos tecnológicos, permite explicar su funcionamiento como
colaboradores de la perpetuación de los procesos de objetivación sexual que tienen lugar
dentro de esa estructura social.
Palabras clave: filosofía de la tecnología; estructura social; colaboración.
3. LA COLABORACIÓN
Los contextos de injusticia social son casos de falsa creencia. Haslanger (2012) se
ha referido a ellos como falsa creencia proyectiva, imprescindible en la perpetuación
del sistema de atribución de posiciones generizadas y jerárquicamente ordenadas.
En los contextos patriarcales, existe una asunción implícita de la normatividad
generizada. Los ideales de neutralidad y objetividad, en cuanto que interiorizados y
respaldados por el sistema epistémico y social, enmascaran la falsedad de la creencia
proyectiva, reforzando la posición de poder de los hombres sobre las mujeres.
Haslanger ha denominado objetividad asumida al conjunto de normas prácticas y
epistémicas que contribuyen a satisfacer el rol del hombre y, por tanto, a sostener la
división generizada de la vida social (Haslanger 2012, 56).
Sin embargo, para entender cómo relaciona el rol del hombre y el rol del
objetivador, es necesario realizar algunas distinciones previas:
– Objetividad fuertemente masculina: Es la noción de objetividad según la cual una
persona funciona bajo el rol del hombre si y sólo si satisface la norma de la
objetividad. Así, la objetividad es fuertemente masculina cuando la satisfacción de
las normas de la objetividad es suficiente, al menos bajo condiciones de
dominación masculina, para ser un objetificador sexual (Haslanger 2012, 64).
Según este sentido de objetividad, «ser objetivo» (en el plano epistémico) es
necesariamente estar en el lugar de la masculinidad (en el plano social). Esta es la
noción de objetividad defendida por MacKinnon.
– Objetividad débilmente masculina: Es la noción de objetividad según la cual una
persona funciona bajo el rol del hombre si satisface la norma de la objetividad, al
menos en parte: la objetividad es débilmente masculina cuando las personas
satisfacen el rol del hombre al ser (al menos en parte) objetivos (Haslanger 2012,
64).
– Ideal fundado constitutivamente en un rol social: es el ideal que se satisface al
funcionar en ese rol social (Haslanger 2012, 74).
– Ideal fundado contextualmente en un rol social: es el ideal que se satisface cuando
satisfacer la norma es suficiente para funcionar en ese rol, dadas las condiciones
de contexto específicas (Haslanger 2012, 74 y 53-54).
Según estas distinciones, la objetividad es fuertemente masculina cuando al
ocupar la posición de la objetividad, de forma necesaria se funciona socialmente como
un hombre. Correlativamente, es débilmente masculina cuando al ocupar la posición
de objetividad se funciona socialmente como un hombre, solo si bajo las condiciones
contextuales específicas la norma de la objetividad coincide con el rol hombre. De este
modo, la objetividad es fuertemente masculina si está constitutivamente fundada en
el rol social del hombre (tal como ocurre en los casos en los que no es posible
satisfacer el rol social sin funcionar en ese rol) y débilmente masculina si lo está
contextualmente (cuando las condiciones de contexto específicas que satisfacen el
ideal son suficientes para funcionar en el rol).
Por consiguiente, si el ideal de objetividad asumida ha sido definido como un
conjunto de normas prácticas y epistémicas que sirven para enmascarar (mediante la
neutralidad y la aperspectividad) y, por tanto, perpetuar el sistema social
jerarquizado, y además, ese sistema social jerarquizado no es un hecho natural, sino
un constructo social, entonces la satisfacción del ideal de la objetividad asumida no
está constitutivamente fundado en el rol del objetivador, sino en el contexto
(Haslanger 2012, 70).
Si, por otro lado, para la determinación del fundamento contextual se requiere,
además, examinar si, bajo las condiciones contextuales específicas, el rol y la norma
de objetividad se identifican, habrá de examinarse, en el caso de la desigualdad de
género, si en el contexto específico, el rol del hombre y el rol del objetivador se
identifican. En los casos en los que la respuesta sea afirmativa, es decir, en las
estructuras sociales en las que las mujeres son consideradas como seres subordinados,
hay que rechazar la norma, pues funciona como mecanismo reproductor de injusticia
social.
Haslanger añade un último elemento: la noción de colaborador. Afirma que el ideal
de objetividad está fundado contextualmente, pero no en el rol del objetivador, sino
en el rol del colaborador: «I propose that the ideal of assumed objectivity is
contextually grounded, not directly in the role of objectifier, but in the role of
collaborator in objectification» (Haslanger 2012, 74).
Según esto, el objetivador tiene éxito cuando ve y trata como objeto algo que por
naturaleza él desea que tenga y, además, él tiene el poder de hacer a ese algo tener
esas propiedades que desea. El colaborador, a diferencia del objetivador, ve y trata
algo como un objeto que por naturaleza tiene propiedades, no que él pone en ello, sino
que son consecuencia de la objetificación; es decir, consecuencia de las fuerzas que
sostienen la jerarquía social. Colabora en la objetivación sin proyectar los propios
deseos. Además, al colaborador no tienen por qué resultarle deseables las propiedades
atribuidas al objeto; pueden parecerle indeseables, naturales o inevitables. El
colaborador tampoco necesita tener el poder de hacer que las cosas tengan las
propiedades que él desea. Sin embargo, no es un proceso pasivo; el colaborador
comparte con el objetivador un patrón de pensamiento y acción.
Trasladándolo a la dimensión de los artefactos, en contextos de injusticia social,
los artefactos funcionan como colaboradores de la normatividad social vigente. En
contextos de desigualdad de género, colaboran con la asignación de roles masculino
(objetivador) y femenino (objetificado). La colaboración permite dar cuenta de la
relevancia del contexto para determinar la función normativa de las tecnologías.
Además, permite explicar el papel activo de los artefactos, sin otorgarles agencia
plena.
4. CONCLUSIONES
Los artefactos tecnológicos cumplen, en contextos de opresión, con el rol de
colaborador. En cuanto que colaboradores en los procesos de subjetivación, el uso de
artefactos en las prácticas de sí, en cierto grado invisibiliza y perpetúa la desigualdad
presente en los contextos de injusticia social. En este sentido, limita la posibilidad
infinita que a priori se manifiesta en la naturaleza virtual de los artefactos.
Según esto, los artefactos, en tanto que colaboradores, figuran como mediaciones
materiales y simbólicas de la creencia proyectiva, de forma tal que en contextos
patriarcales, son la mediación de la falsa creencia de que a las mujeres les pertenecen
por naturaleza, características que, en realidad, son extrínsecas a ellas, pero son
presupuestas en ellas como si fueran intrínsecas.
En tanto en cuanto que la objetividad asumida es la asunción de la falsa creencia
de que lo masculino y lo femenino son dos espacios diferenciados (en virtud del sexo)
y ordenados de forma jerárquica, con la consecuente identificación entre lo masculino
y lo objetivo, la noción de objetividad, en estos contextos está generizada.
Si, además, el uso de artefactos en las prácticas de subjetivación constituye aquello
a través de lo cual uno se da a sí mismo como objeto, entonces ese darse a sí mismo
como objeto (presente en los procesos de subjetivación) será un darse a sí mismo
como objeto generizado, ya que los artefactos funcionan como colaboradores de la
normatividad patriarcal.
De este modo, los artefactos tecnológicos funcionan como mediaciones
generizadas material y simbólicamente entre los sujetos y la normatividad en cada
caso existente. En los contextos patriarcales definitorios de las sociedades
contemporáneas, funcionan como mediaciones materiales del mecanismo de
legitimación de una distribución desigual de poder, gracias a la cual la objetificación
es perpetuada.
5. REFERENCIAS BIBLIOGRÁFICAS
Bourdieu, Pierre (2010), La dominación masculina, Barcelona, Anagrama.
Feenberg, Andrew (1999), Questioning technology, London; New York, Routledge.
Haslanger, Sally (2012), Resisting reality: Social construction and social critique, New York, Oxford
University Press.
Haslanger, Sally (2015), «What is a (social) structural explanation?», Philosophical Studies, 173(1),
113-130.
Ihde, Don (1990), Technology and the lifeworld: from garden to earth, Bloomington, Indiana University
Press.
Ihde, Don (2015), «Positioning Postphenomenology», en Robert Rosenberg y Peter-Paul Verbeek
(eds.) Postphenomenological Investigations. Essays on Human-Technology Relations. Lanham,
Lexington Books, vi-xvi.
Lasén, Amparo, Casado Elena (eds.) (2014), Mediaciones tecnológicas: Cuerpos, afectos y subjetividades,
Madrid, Centro de Investigaciones Sociológicas.
MacKinnon, Catharine (1987), Feminism unmodified: Discourses on life and law, Cambridge
(Massachusets), Harvard University Press.
Mackinnon, Catharine (1995), Hacia una teoría feminista del estado, Madrid; Valencia, Cátedra.
Sharon, Tamar (2014), Human nature in an age of biotechnology: The case for mediated posthumanism,
Dordrecht, Springer.
Vega Encabo, Jesús (2009), «Estado de la cuestión: Filosofía de la tecnología», Theoria, 24 (66), 323
341.
Verbeek, Peter-Paul (2005), What things do: Philosophical reflections on technology, agency, and design,
University Park, Pa., Pennsylvania State University Press.
Verbeek, Peter-Paul (2008), «Morality in Design», en Pieter E. Vermaas (ed.) Philosophy and Design:
From Engineering to Architecture. Dordrecht, Springer, 91-103.
Verbeek, Peter-Paul (2015), «Beyond Interaction: A Short Introduction to Mediation Theory»,
Interactions, 22(3), 26-31.
[1] P. Brey (2010) ha sintetizado esta oposición en tres puntos: (i) el rechazo a la visión pesimista de la
tecnología, (ii) la oposición a la concepción de la tecnología como entidad independiente y autónoma y (iii)
la crítica a la comprensión de la tecnología como algo general, abstracto y descontextualizado. De hecho, la
crítica a la descontextualización de la tecnología incluye ya las otras dos, por cuanto que la demanda de
contextualización necesariamente implica el reconocimiento de, por un lado, la dependencia de los
artefactos tecnológicos del contexto en el que emergen y, por otro, de cierto grado de imprevisibilidad en la
interacción de los artefactos en esos contextos.
[2]«La sexualidad (…) es una dimensión omnipresente de la vida social, que se propaga a la totalidad,
una dimensión en la que el género ocurre y a través de la cual se constituye socialmente el género; es una
dimensión en la que se expresan parcialmente otras divisiones sociales, como la raza y la clase. El dominio
erotizado define los imperativos de su masculinidad y la sumisión erotizada define su femineidad»
(MacKinnon, 1995, 230).
CIENCIA Y TECNOLOGÍA
PARA EL POSCONFLICTO EN COLOMBIA
RESUMEN: El posconflicto puede ser un buen pretexto para que la C+T+I coadyuve a mejorar
las condiciones de vida de la población en general, especialmente aquella que vive en la zona
rural y que ha padecido el rigor de la violencia por más de 50 años. Este escenario puede abrir
las puertas para poner a funcionar el modelo DUI (Doing, Using and Interacting), el cual oferta
posibilidades para que la transferencia de conocimientos de C+T+I solucione y mejore la calidad
de vida del diario discurrir que afronta el hombre y la mujer del campo. Son conocimientos
aplicados a resolver problemas en las formas de cocinar, de cultivar, de ser asistido por los
centros de salud, de transporte, de comunicaciones, de la luz eléctrica, de la cosecha, del
regadío, del agua, de las minas quiebras patas, de las discapacidades, de la educación, … de
encontrar en la transferencia de conocimiento solución pronta y duradera de aquellos
problemas del quehacer cotidiano, actualmente olvidados por las políticas públicas de C+T+I. En
este contexto, la comunicación pretende responder: ¿cuál es la ciencia y la tecnología que, en
tiempos de posconflicto, requieren las zonas azotadas por la violencia en Colombia?
Área temática: Ciencia, Tecnología y Sociedad.
Palabras claves: Capacidad absorción de conocimientos; innovación; políticas de ciencia y
tecnología.
1. INTRODUCCIÓN
Las regiones productivas, competitivas e innovadoras son aquellas que gozan de
buenas capacidades de absorción de conocimientos de C+T+I. En estos lugares, los
investigadores, los grupos de investigación, los empresarios, los rectores de
universidades, los docentes, los estudiantes de los diferentes niveles de formación, los
Ph.D, los recursos invertidos en I+D+I, las organizaciones e instituciones que arropan
los quehaceres de C+T+I, etc. coadyuvan a crear ambientes que favorezcan y
dinamicen la capacidad de asimilar C+T+I con el fin de robustecer el desarrollo
endógeno departamental.
En este marco, la C+T+I que requieren los variados departamentos de Colombia
para tiempos de posconflicto, especialmente aquellos que han sufrido la guerra
interna, es aquella que facilite hacer más vivible la vida en la zona urbana y rural,
reclamando C+T+I para mejorar los quehaceres de la cocina, regadío, acueducto y agua
potable, internet, educación, vías y carreteras, medios de transporte fluvial, luz
eléctrica, etc. Es decir, estas regiones periféricas reclaman una C+T+I que al estar
articulada a resolver dificultades y problemas del diario vivir y al estar arropadas por
organizaciones e instituciones, permitan identificar, absorber, asimilar, transformar y
aplicar o explotar conocimientos, según Cohen y Levinthal (1990), Zahra y George
(2002) y Lane et al. (2006), con el fin de ocasionar desarrollo endógeno en el territorio
y mejorar la calidad de vida de los habitantes del departamento.
Para hacer operativo este enfoque, el modelo más indicado es el DUI (Doing, Using
and Interacting), (Lundvall y Lorenz 2010, 61), puesto que exige a los investigadores, a
las comunidades, a las organizaciones y a las instituciones de los departamentos
confluir en consensos fundamentales, identificando y desarrollando proyectos de
C+T+I que resuelva realmente el quehacer de los campesinos, obreros, etnias,
desplazados por el conflicto, víctimas del conflicto, entre otros, de tal manera que, en
pocos meses o años, estos sectores, hoy excluidos y vulnerables, vean los impactos
sobre la mejoría sustancial de sus vidas.
Para ello, esta esta investigación, al pretender responder la pregunta: ¿cuál es la
ciencia y la tecnología que, en tiempos de posconflicto, requieren las zonas azotadas
por la violencia en Colombia?, desarrolla en la primera parte un panorama general de
Colombia, luego se describe sucintamente algunos aspectos metodológicos, a
continuación se resalta el modelo DUI y finalmente se destacan algunas conclusiones.
3. ASPECTOS METODOLÓGICOS
La pregunta de investigación permitió realizar, entre otras, las siguientes
actividades:
5. CONCLUSIONES
El modelo DUI, contextualizado a la praxis social y económica de las regiones,
permite optimizar las condiciones de vida de las comunidades desde la C+T+I.
Implementar este modelo requiere el consenso de las fuerzas sociales, económicas,
políticas y culturales de una región, bajo el firme propósito de generar transferencia
de conocimientos de forma efectiva y real. Cerrar las brechas existentes respecto al
Índice de Pobreza Multidimensional Ajustado, IPMA, atacando y reduciendo el
analfabetismo de niños, niñas, adolescentes, adultos y mayores; ahuyentar el rezago
escolar y facilitar la asistencia de los niños y niñas a las escuelas. La educación
transforma la vida de las personas, cierra la brecha entre ricos y pobres, reduce las
desigualdades entre zona rural y urbana, mejora los ingresos, disminuye la
probabilidad entre los pobres de continuar resistiendo este flagelo, … La educación
como hilo conductor de C+T+I incrementa la capacidad de absorción de conocimientos
y posibilita mejorar el bienestar y la calidad de vida.
A partir del índice de capacidad de absorción de conocimientos de C+T+I, el cual
proporciona una radiografía actual de C+T+I en cada departamento de Colombia, se
puede implementar políticas públicas para aquellas regiones que han sufrido los
flagelos de la violencia en los últimos cincuenta años. Estas asimetrías existentes
deben servir como punto de partida para implementar varias acciones. La primera,
crear fuentes de información para tomar decisiones respecto a la implementación de
políticas relacionadas con la salud, educación, sicosociales, económicas, entre otras;
hacer un seguimiento del discurrir de estas políticas en el mediano y largo plazo son
trascendentales para asimilar experiencias cognitivas que fortalecerán la historia, la
cultura, la política y el quehacer social de los reinsertados; la memoria escrita es vital
para construir espacios de convivencia y de justicia social. La segunda, crear
conocimientos mediante investigaciones socioeconómicas, políticas, culturales,
educativas, … que resultarán como consecuencia de implementar políticas variadas
para incluir a las personas del postconflicto a la vida social y cultural; este tipo de
investigaciones serán escenarios para que la comunidad científica regional, nacional e
internacional refrende, desde diferentes enfoques, los resultados de los acuerdos de
paz; los conocimientos adquiridos serán fuente invaluable para procesos de paz del
mundo globalizado. Y la tercera, implementar procesos de educación y formación de
los reinsertados, pues el 70% de éstos, según la Agencia Colombiana para la
Reinserción, ACR, (2015), son personas jóvenes, tienen entre 26 y 40 años de edad, el
72% no han completado el bachillerato y el 49% tienen hijos (Martínez et al. 2015, 2);
la educación es uno de los instrumentos más importantes y efectivos para que los
actores del postconflicto puedan articularse a la vida con normalidad.
REFERENCIAS BIBLIOGRÁFICAS
Agencia Colombiana para la Reinserción, ACR. (2015), Información estadística. Caracterización de la
población, www.reintegracion.gov.co/es/la-reintegracion/Paginas/cifras.aspx
Cejudo Córdoba, Rafael (2007), «Capacidad y Libertad. Una aproximación a la teoría de Amartya
Sen», Revista Internacional de Sociología (RIS), Vol. LXV, No. 47, 9-22.
Cohen, Wesley M. y Levinthal, Daniel A. (1990), «Absorptive capacity: a new perspective on learning
and innovation», Administrative Science Quarterly, 35 (1), 128-152.
Departamento Nacional de Estadística, DANE, (2015), «Censo Nacional Agropecuario», CNA,
https://www.dane.gov.co/index.php/estadisticas-por-tema/agropecuario/censo-nacional
agropecuario.
Heredia Melo, Damaris y Moreno, Sandra Lucia (2014), «Comportamiento de lesiones de causa
externa. Colombia 2014», Forensis, 16 (1), 17-90
Lane, Peter J. Koka, Balaji R. y Pathak, Seemantini (2006), «The reification of absorptive capacity: a
critical review and rejuvenation of the construct», Academy of Management Review, 31(4), 833
863.
Lundvall, Bengt-Åke y Lorenz, Edward (2010), «Innovación y desarrollo de competencias en la
economía del aprendizaje. Implicaciones para las políticas de innovación», en Davide Parrilli,
M. (coord.), Innovación y aprendizaje: Lecciones para el diseño de políticas, País Vasco: Innobasque,
44-101.
Martínez, Susana, Ramírez, Juan Mauricio y Pertuz, María Cecilia (2015), El rol de la educación en el
posconflicto: Parte 1. La reincorporación de los desmovilizados, Bogotá, Compartir y Fedesarrollo.
Pérez, César (2004), Técnicas de Análisis Multivariante de Datos, Madrid, Pearson Educación, S.A.
Programa de las Naciones Unidas para el Desarrollo (P.N.U.D.) (2000), Informe sobre el desarrollo
humano, Madrid, Mundiprensa.
Registro Único de Victimas, RUV, (2016), http://rni.unidadvictimas.gov.co/RUV.
Sen, Amartya (2002), Rationality and Freedom, Cambridge (Mass.), Belknap.
UNODC (2016a), Colombia. Monitoreo de Territorios afectados por cultivos ilícitos 2015, Bogotá, Ministerio
de Justicia y del Derecho.
UNODC (2016b), Colombia. Explotación de oro de aluvión, Bogotá, MINJUSTICIA, MINAMBIENTE,
MINMINAS.
Zahra, Shaker A. y George, Gerard (2002), «Absorptive capacity: a review, reconceptualization, and
extension», The Academy of Management Review, 27(2), 185-203.
[1] Licencias ambientales, amparo de títulos sin licencias, solicitudes de legalización y propuestas de
contrato.
[2] El proyecto CAPACIDADES DE C+T+I Y DESARROLLO ENDOGENO TERRITORIAL, contiene diez
dimensiones, cuatro están en proceso de construcción.
[3] Las dimensiones son seis (cuadro 1), variables 27 e indicadores 47.
[4] Según Censo Nacional Agropecuario 2014, Vichada el 94,1%, Guaviare 95,6% y Caquetá 92,1%, por
ejemplo, no tienen acueducto.
[5] En promedio el analfabetismo de la población rural dispersa del país, según Censo Nacional
Agropecuario 2014, es de aproximadamente el 20%.
EMPODERAMIENTO EN LA RED INTERGENERACIONAL
INNOVADORA DE PRODUCCIÓN DE MAÍZ EN CIUDAD DE
MÉXICO
(1) Universidad del País Vasco/Euskal Herriko Unibertsitatea UPV/EHU, País Vasco, España
wcano001@ikasle.ehu.eus
(2) Universidad del País Vasco/Euskal Herriko Unibertsitatea UPV/EHU, País Vasco, España
andoni.ibarra@ehu.eus
RESUMEN: Ante los procesos sociales de despojo y descomposición social, las comunidades en
zonas altas del sur de Ciudad de México –sin saberlo conscientemente– están proponiendo
alternativas para reconfigurar la agrobiodiversidad de la zona mediante imperceptibles
sistemas tradicionales de intercambio de semillas realizados a través de redes sociales locales.
Nuestro propósito es comprender los mecanismos de empoderamiento relacionados a los
procesos de socialización en esta red a través de los intercambios de semillas de maíz.
Consideramos que hay un intercambio de conocimientos donde los vínculos entre actores
reflejan las estrategias locales que fortalecen el proceso de creación, innovación, uso y
conservación de maíces criollos co-constituyendo a su vez una red socio-técnica local
fuertemente estructurada.
El análisis de la capacidad de innovación local heredada, adquirida y construida de los
agricultores de maíz criollo permitió caracterizar y visualizar las narrativas reticulares de
conocimiento, aprendizaje y cooperación en tres generaciones de agricultores. La
caracterización de los vínculos de interacción, sus dinámicas temporales-contextuales y sus
interacciones fueron fundamentales para poder redirigir la estructura reticular a objetivos
deseables desde el ámbito local con las acciones y decisiones de los propios agricultores,
generando incluso, una defensa activa del maíz, donde las interacciones cognoscentes
fortalecieron su empoderamiento.
Palabras clave: innovación socio-técnica; redes sociales; interacciones cognoscentes; maíz
criollo.
INTRODUCCIÓN
on el desarrollo
paradigma
investigación
reduccionista
parade la Revolución Verde en la agricultura el enfoque de
C
1.
mejora en la producción fue principalmente realizado bajo el
de «arriba-hacia abajo» («top-down») (Norman 2015).
Desde entonces las consecuencias de imposición de modelos, saberes científicos y
paquetes tecnológicos concebidos bajo el síndrome unitalla, ha dado como resultado
situaciones de desigualdad que se han buscado solucionar mediante programas para
empoderar a las comunidades de agricultores a través de apoyos económicos o
paquetes tecnológicos estándar (Khushk et al. 2016). Sin embargo, a nivel local su
impacto no ha sido favorable dado que este empoderamiento concede a un sector con
desventajas la posibilidad de tomar cierto control en algunas decisiones (Maton 2008),
o bien, se les concede cierto poder sin proporcionar los medios para ejercerlo (Perkins
1995). Por el contrario, el empoderamiento que abordamos es en términos de co
construcción relacional y contextual a través del intercambio de semillas de maíz en
la comunidad de Tlalpan en el Sur de la Ciudad de México. Las prácticas particulares
de esta comunidad están caracterizadas por dinámicas reticulares que identificamos y
nos permitieron caracterizar los mecanismos de empoderamiento que les han
permitido socializar el conocimiento e incluso innovar a lo largo de tres generaciones
de productores de maíz en la región.
3. METODOLOGÍA
Para generar una aproximación relacional fuerte que permita destacar el tipo de
interacción que se da en el intercambio de semillas como dispositivo socio-técnico y
en la calidad de la relación que supone un mayor peso explicativo se estableció una
metodología mixta que contempla una acercamiento cualitativo y cuantitativo.
Mediante un enfoque de relación social (SRA por sus siglas en inglés: social relations
approach: March et al. 1999) pudimos observar la manera en que los miembros
generan sus relaciones; los tipos de intercambios que realizan durante el intercambio
del maíz, conocer el poder de negociación que tienen y qué es lo que reciben a cambio
de acuerdo al interés que existe en el intercambio. Adicionalmente se realizó una
técnica de evaluación rural rápida (por sus siglas en inglés RRA-Rapid Rural Appraisal;
modificada de Theis & Grady 1991) que permitió conocer la manera en la que los
agricultores interpretaron sus situaciones de producción y la relación que tenían con
ciertas limitaciones con otros actores (por ejemplo, con investigadores y técnicos de
los programas estatales) y actantes (por ejemplo, con limitaciones climáticas). El
método de muestreo por etapas múltiples permitió generar conglomerados mediante
un sistema de recolección de clusters (Preston et al. 2013) en los dominios
correspondientes a las cuestiones de empoderamiento relativas al desarrollo de
capacidades; utilidad de los conocimientos; y solución de problemas. Finalmente; se
realizaron entrevistas a profundidad semiestructuradas de manera narrativa y
longitudinal a las 105 personas que conformaban las seis familias de productores
locales de Tlalpan. Durante estas entrevistas se generaron las bases de datos para
obtener las ego-redes y realizar un análisis de redes sociales (Brandes & Wagner 2004)
en los tres intervalos generacionales.
Figura 1. La estructura entre las generaciones se hace más compleja en la medida en que
se generan más vínculos con otros actores (otros agricultores) y actantes (otras
actividades e instituciones representadas por rombos). Las capacidades sinérgicas de la
primera generación donde las transacciones eran «entre compadres» y las e-sinérgias de
la tercera generación hace que junto con el conocimiento entre generaciones que fluye
constantemente deje de ser visto como conocimiento tradicional y científico para
transformarse a través del diálogo, la reflexión y la retroalimentación en conocimiento
útil para los agricultores de la zona. Los vínculos negros que conectan a las generaciones
representan la fortaleza del conocimiento tradicional y los vínculos en gris el
conocimiento científico y académico que ha adquirido la tercera generación y es
compartido con las generaciones anteriores
Análisis de redes sociales realizado con Visone 2.8 elaboración de los autores.
7. REFERENCIAS BIBLIOGRÁFICAS
Badstue L., Berthaud, Bellon R. Mauricio, Berthaud Julien, Juárez Xóchitl, Manuel Rosas Irma,
Solano Ana María y Ramírez Alejandro (2006), «Examining the Role of Collective Action in an
Informal Seed System: A Case Study from the Central Valleys of Oaxaca, Mexico», Human
Ecology, 34(2), 249-273.
Benz, Bruce F. (2006), «Maize in the Americas», en J. E. Staller, R. H. Tykot, B. F. Benz (eds.), Histories
of Maize: Multidisciplinary Approaches to the Prehistory, Linguistics, Biogeography, Domestication and
Evolution of Maize, Amsterdam: Academic Press, 9-20.
Brandes, Ulrik, Wagner, Dorothea (2004), «Visone-Analysis and Visualization of Social Networks»,
en Michael Jünger y Petra Mutzel (eds.) Graph Drawing Software. Berlin Heidelberg: Springer
Verlag, 321-340.
Cano, Wendy, Andoni Ibarra (2012), «“You say maize as a cultural element of identity; I say a
biological being…” Narratives of Mexican children on the transgenic maize debate –the
importance of knowing the contexts», en Thomas Potthast y Simon Meish (eds.) Climate Change
and Sustainable Development: Ethical Perspectives on Land Use and Food Production, Tubingen,
Germany: Wageningen Academic Publishers, 431-435.
Chamberlin, Judi (1997), «A working definition of empowerment», Psychiatric Rehabilitation Journal,
20(4), 43-46.
Eklund, Leena (1999), From citizen participation towards community empowerment, Academic
Dissertation: University of Tampere, Finland.
Maton, Kenneth. I. (2008), «Empowering community settings: Agents of individual development,
community betterment, and positive social change», American Journal of Community Psychology,
41(1-2), 4-21.
Perkins, Douglas. D. (1995), «Speaking truth to power: Empowerment ideology as social
intervention and policy», American Journal ofCommunity Psychology, 23(5), 765-794.
Preston, Robyn, Waugh, Hilary, Taylor, Judy, Larkins, Sarah (2009), «The benefits of community
participation in rural health service development: Where is the evidence?» en Proceedings of
the 10th National Rural Health Conference, 17-20 May 2009, Cairns, Queensland, Australia, 1-20.
Theis Joachim, Grady Heather (1991), Participatory Rapid Appraisal for Community Development: A
training manual based on experiences in the Middle East and North Africa. International Institute for
Environment and Development, London: UK, 38-54.
Turrent-Fernández, Antonio, Cortés-Flores José Isabel, Espinosa-Calderón Alejandro, Mejía
Andrade Hugo, Serratos-Hernández José Antonio (2010), «¿Es ventajosa para México la
tecnología actual de maíz transgénico?». Revista Mexicana de Ciencias Agrícolas, 1:631-646.
LUCES Y SOMBRAS DEL INFORME
DE DAVID KAYE (ONU) SOBRE CRIPTOGRAFÍA, ANONIMATO Y
DERECHOS HUMANOS[1]
RESUMEN: El artículo analiza el Informe de David Kaye, Relator Especial de la ONU sobre la
promoción y protección del derecho a la libertad de opinión y expresión, respecto del impacto
de las herramientas de encriptación y de anonimización. Su demanda principal es el respeto de
esos instrumentos porque son inherentes al ejercicio de varios derechos humanos.
Sus principales luces son: una visión no tecnofóbica del problema; una defensa
«principialista» y no utilitarista de esas herramientas; una posición crítica respecto de Estados
y multinacionales, pero también autocrítica con los organismos internacionales; y una defensa
de una democracia participativa como requisito de toda legislación sobre tecnología.
Sus principales sombras son: la incompletitud; la falta de reivindicación del software libre; la
baja participación en su elaboración, bajo un modelo de «gobernanza»; y un positivismo legal
que impide aceptar la desobediencia civil electrónica o la efiltración.
Palabras clave: cifrado; libertad de expresión; libertad de opinión; desobediencia civil
electrónica; efiltración.
1. IDEAS PRINCIPALES
P ara David Kaye, el uso y el aprendizaje de la encriptación y el anonimato son
cualquier censura,
indispensables pararepresión
varios derechos
o prohibición
fundamentales.
de esas tecnologías,
Así, la ONU rechaza
a pesar de los
posibles riesgos o abusos. Kaye (2015, 1) concluye que «el cifrado y el anonimato
permiten a los individuos ejercer sus derechos a la libertad de opinión y de expresión
en la era digital y, como tales, merecen una fuerte protección»[2]:
Los Estados deben promover la encriptación fuerte y el anonimato. Las leyes
nacionales deben reconocer que las personas son libres de proteger la privacidad de
sus comunicaciones digitales mediante el uso de la tecnología de cifrado y
herramientas que permiten el anonimato online. […] Los Estados no deben restringir
el cifrado y el anonimato, que facilitan y a menudo permiten los derechos a la libertad
de opinión y de expresión. […] Los Estados deben evitar todas las medidas que
debiliten la seguridad que las personas pueden disfrutar en línea, tales como las
puertas traseras, estándares débiles de encriptación y depósitos de claves. Además, los
Estados deben abstenerse de hacer de la identificación de los usuarios una condición
para el acceso a las comunicaciones digitales y a los servicios en línea y que requieren
el registro de la tarjeta SIM para los usuarios móviles. Las empresas también deberían
considerar sus propias políticas que restringen el cifrado y el anonimato (incluso
mediante el uso de seudónimos) (Kaye, 2015, 20).
Coherentemente, demanda una alfabetización digital que promueva los llamados
derechos humanos de cuarta generación, siendo el derecho a Internet el principal. A
continuación, destaco los puntos positivos y negativos del Informe, elogiando su
defensa acérrima de las herramientas de cifrado y anonimización.
4. REFERENCIAS BIBLIOGRÁFICAS
Comas, Miquel (2016), «WikiLeaks Sociedad Anónima: la e-filtración de secretos como
desobediencia civil», en José Candón-Mena (ed.) Actas del I Congreso Internacional Move.net sobre
Movimientos Sociales y TIC. Sevilla, Compolíticas, 390-418.
Kaye, David (2015), «Report of the Special Rapporteur on the promotion and protection of the right
to freedom of opinion and expression [A/HRC/29/32]», Human Rights Council (ONU).
Méndez, Juan (2012), «Report of the Special Rapporteur on torture and other cruel, inhuman or
degrading treatment or punishment. Addendum. Observations on communications transmitted
to Governments and replies received [A/HRC/19/61/Add.4]», Oficina del Alto Comisionado para
los Derechos Humanos (ONU), 29-2-2012.
[1] Esta investigación cuenta con el apoyo del Proyecto Esfera Pública y Sujetos Emergentes (FFI2016
75603-R, AEI/FEDER, UE).
[2] Todas las citas en español aquí referidas son traducciones no oficiales ni profesionales realizadas
por mi parte.
[3] Kaye (2015, 3, 5-9 y 18-19) liga criptografía y anonimato con varios derechos fundamentales, no solo
con opinión y expresión: derechos económicos; intimidad y privacidad –vida privada, familia, hogar,
correspondencia, honor, datos personales y propia imagen; debido proceso, libertad de reunión,
manifestación y asociación pacíficas; derecho a la vida y a la integridad corporal; libertad de prensa; secreto
profesional, etc. O derecho a la cultura, la ciencia y las creaciones artísticas, que incluye tanto la
participación en su desarrollo –vertiente investigadora– como el disfrute de sus resultados. También se
ligan al libre desarrollo de la propia personalidad e identidad, la definición del género, la religión, la
sexualidad de uno mismo, etc. Así se confirma el vínculo entre intimidad íntegra –sin intrusiones no
deseadas– y libertad de expresión pública, auténticamente libre y crítica: «Los derechos a la «privacidad y
libertad de expresión están interrelacionados» […]. La privacidad es una puerta de entrada al disfrute de
otros derechos, en particular la libertad de opinión y expresión».
[4] «El TEDH ha concluido adecuadamente que el término “necesaria” […] significa que la restricción
debe ser algo más que “útil”, “razonable” o “deseable”» (Kaye, 2015, 12).
[5] Son graves las intromisiones a la privacidad por parte de la creciente industria del Big Data (Kaye,
2015, 7), ya sea para mejorar las campañas electorales o el targeting comercial. Existe colaboración a veces
criminal entre Estados y empresas en el mercado de la cibervigilancia y el spyware (Kaye, 2015, 10).
[6] Juan Méndez (2012, 74-75) –ex Relator Especial sobre la tortura y otros tratos o penas crueles,
inhumanos o degradantes– denunció los padecimientos de Chelsea Manning, encarcelada por transferir
secretos militares a WikiLeaks.
A ÉTICAJONASIANA COMO PROPOSTA
PARA A SOCIEDADE TECNOCIENTÍFICA
INTRODUÇÃO
compreensão
ciência
egundo eJonas
de tecnologia
da
(2006,
realidade.
31-39),
baseada
Uma
o advento
nonova
modelo
cosmovisão
datecnicista,
modernidade
que
objetivista
setrouxe uma visão de
S
1.
e utilitarista de
estabelece como um
novo modelo paradigmático e um novo modo de agir (ético, inclusive), o qual, diante
da resolução dos problemas enfrentados, propiciou transformações sociais profundas
a partir de então. Dentre elas, uma das mais notáveis está relacionada ao fato de que a
técnica passa a ser o aspecto mais significativo e relevante do empreendimento das
ações humanas. Nesse contexto, para o homem moderno, estabelecer relações e
produções materiais, que se relacionam com o fazer (prática), passa a ser mais
importante que construir o conhecimento em sua própria finalidade, que se relaciona
com o saber (teoria).
Atrelada a essa conjuntura, o desenvolvimento da ciência e da tecnologia,
vinculado à dominação e transformação da natureza, gerou a nova base
desenvolvimentista (Jonas 2006, 31-32), fundando a referida sociedade tecnocientífica.
Considerando que os avanços científicos e tecnológicos pudessem ser tratados fora do
âmbito social, isto é, de forma neutra, foram produzidas consequências nefastas para
essa sociedade, com efeitos destrutivos não só à vida humana, mas também à
sustentabilidade do planeta (Jonas 2006, 229). Para ele, o surgimento da sociedade
tecnocientífica trouxe consigo um dilema ético cujas éticas anteriores sequer tinham
levado em conta, isto é, a permanência ou não da vida humana na Terra (Jonas 2006,
18). Tal condição humana global e atual nos revela, portanto, a necessidade de
repensar as bases valorativas do que se chama desenvolvimento, a fim de resinificarmos
nossas (rel)ações no mundo frente às gerações presentes e futuras.
Dessa forma, considerando a ética como sendo a coluna balizadora que nos
permite emitir juízo e avaliar o bem e o mal (ou o que ébom e o que é mau), o cenário
adverso, gerado pela sociedade tecnológica na modernidade, estimula um
direcionamento dos esforços discursivos para o campo ético, isto é, abordando,
questionando e formulando princípios e valores como norteadores das ações do
homem em sociedade. Por isso, Jonas propôs o princípio responsabilidade: uma proposta
de ética na sociedade tecnocientífica, onde o fazer instrumental é mais importante
que o ser em seu sentido ontológico, discutindo, em contrapartida, o resgate da vida,
esta em seu estado total e interdependente, ou o que pode ser chamado de sentido
biocêntrico do agir moral.
2. METODOLOGIA
A pesquisa tem caráter qualitativo e especialmente bibliográfico, cujo conteúdo é
filosófico e interpretativo em sentido social, na qual, perpassa três etapas
metodológicas, a saber:
Primeiramente, elaborou-se uma contextualização acerca das transformações
sociais que configuram a mudança do pensamento moderno, incluso as concepções de
ciência e tecnologia herdadas. Esse trabalho de contextualização foi de fundamental
importância para situar, posteriormente, desde onde parte a proposta da ética
jonasiana.
Com base nesta análise que embasa a mudança paradigmática da modernidade, de
onde emerge a proposta de Jonas, foi estudada a responsabilidade como princípio para
uma ética que nasce dos desafios emblemáticos da sociedade tecnocientífica. Por isso,
nesta segunda etapa da pesquisa, realizou-se também a leitura minuciosa e detalhada
da principal obra de Jonas intitulada «O princípio responsabilidade – Ensaio de uma
ética para a civilização tecnológica», tradução para o português brasileiro, de 2006,
assim como de outras obras de sua autoria, como «Técnica, medicina e ética: sobre a
prática do princípio responsabilidade» (2013), para identificar as principais
características que norteiam o princípio responsabilidade como modelo de ética
proposta por Jonas. Através desta etapa descritiva da pesquisa, pretendeu-se ainda
suscitar os alcances da ética jonasiana e sua aplicabilidade na resolução de dilemas
típicos da modernidade, como no caso específico do dilema da obsolescência planejada
(Padilha; Bonifácio 2013, 36-37), cujo contexto é bem característico da sociedade
tecnocientíca e externa, paulatinamente, as problemáticas advindas de dilemas sociais
correlatos.
A terceira e última fase deste trabalho consiste em evidenciar e analisar os
aspectos limítrofes que também acompanham sua proposta, os quais emergem de
reflexões filosóficas contemporâneas e conferem teor crítico à ética da
responsabilidade. Dentre estes aspectos, há cabida aqui para se destacar: 1) a
problemática do prognóstico, que considera a reflexibilidade da contemporaneidade
(Beck 2006, 2-7) e o surgimento de uma sociedade de risco (Beck 2006, 40), onde
incertezas e riscos coincidem em meio a uma infinidade de variáveis e possibilidades
de estimativas, cuja complexidade dificulta ainda mais a resolução do problema; e, em
consequência, 2) a referenciação indutiva de uma sociedade cada vez mais
tecnológica, na qual as estimativas de riscos e as demandas advindas de prognósticos
desses riscos requereriam a resolução de problemas técnicos com mais técnica e a
retroalimentação do sistema de desenvolvimento da tecnologia em si mesma (Miranda
2015, 34).
4. A PROPOSTA DA RESPONSABILIDADE
Em resposta a esse déficit valorativo, Jonas propõe o princípio responsabilidade:
uma proposta de ética nascida das consequências desastrosas da civilização
tecnocientífica, a qual está descrita em sua principal obra, O princípio responsabilidade –
Ensaio de uma ética para a civilização tecnológica (2006). Dentre suas principais
características, podem ser identificadas: a valoração do ser, a preservação da vida, a
necessidades de estimar riscos e de estabelecer prognóstico, bem como o seu aspecto
prático, que diz respeito à heurística do medo.
A primeira característica a ser destacada é a valoração do ser, que fundamenta a
dimensão da ação humana. Jonas a define, conceituando a responsabilidade, em seu
sentido ontológico, como princípio fundamental e norteador de toda a sua proposta
de ética. Ele diz: «Responsabilidade é o cuidado, reconhecido como dever, por outro
ser, cuidado que, dada a vulnerabilidade, se converte em “preocupação”» (Jonas 2006,
357).
A segunda característica a ser destacada, a preservação da vida, trata-se de um valor
que também se mostra diferente no que tange à dimensão da ação humana, pois
considera a vida para além da humanidade. Jonas propõe o biocentrismo, posto que
considera que o centro da ação moral reside na vida presente em toda a biosfera. Em
suma, em contrapartida à ética tradicional que visa preservar apenas a vida humana,
Jonas afirma: «(…) nossa obrigação se estenderia para mais além, (…) que a limitação
antropocêntrica de toda a ética antiga (…). Se assim for, (…) significaria procurar não
só o bem humano, mas o também o bem das coisas extra-humanas (Jonas 2006, 41).
Outra característica importante do modelo ético jonasiano refere-se à necessidade
de estimar riscos, que surge da preocupação sobre a influência que as ações que se
praticam no presente podem ter, de forma a garantir a sustentabilidade e o equilíbrio
do ambiente no futuro. Em linhas gerais, Jonas discursa sobre isso dizendo: «(…) meu
agir não pode pôr em risco o interesse “total” de todos os outros também envolvidos
(que são, aqui, os interesses das gerações futuras)» (Jonas 2006,85). Ou seja, o meu
direito de ação não pode por em risco o direito de outro indivíduo que esteja
envolvido em uma dada relação social, pelo contrário, esse direito inicial pode ser
limitado a depender do contexto social que perpassa essa relação. Sobre isso, Jonas
também discursa:
Posso ter responsabilidade por outros cujo bem-estar depende do meu, por exemplo, como
mantenedor de minha família, como mãe de crianças pequenas, como titular decisivo de uma
tarefa pública; e tais responsabilidades limitam, sem dúvida não legalmente, mas, sim,
moralmente, minha liberdade (…) (Jonas 2013, 255).
Logo, as ações humanas são pensadas, considerando o ato de estimar os riscos em
interface com o futuro da humanidade, as próximas gerações. Desde aqui se pode
avistar outra característica, que é a necessidade de estabelecer prognóstico. Em termos
conceituais e ilustrativos, mais que diagnosticar, a ciência também deve prognosticar,
alerta Jonas, e a previsibilidade deve fazer parte do ato de conhecer e descobrir. Sobre
isso, ele observa: «Portanto, esse saber (…) só pode operar com os seus diagnósticos
hipotéticos relativos ao que se deve esperar, ao que se deve incentivar ou ao que se
deve evitar. Há de se formar uma ciência de previsão hipotética, uma «futurologia
comparativa» (Jonas 2006, 70).
E por último, relacionado à prática e aplicabilidade do princípio responsabilidade
nos fundamentos da ética jonasiana, há uma característica crucial que é chamada por
Jonas de heurística do medo (ou do temor):
(…) o temor está já como um potencial da pergunta originária com a que se pode representar
inicialmente toda a responsabilidade ativa (…). A teoria da ética precisa de representação do
mal tanto quanto da do bem e mais ainda quando o mal se tem visto pouco claro para os
nossos olhos e somente pode voltar a fazer-se patente mediante um novo mal antecipado
(Jonas 2006, 357-358).
Ou seja, para que, efetivamente, o princípio responsabilidade se torne ativo no
sistema social, sendo posto em prática, o temor funciona como um mecanismo
regulador das ações humanas, através de conceitos de bem e de mal
causados/vindouros.
Para ilustrar a aplicação dos princípios que regem a proposta da ética da
responsabilidade, podemos citar o caso da obsolescência planejada. Basicamente, se
trata de um mecanismo incorporado ao processo produtivo, de modo que se crie um
produto e sua duração tenha um prazo de validade, fazendo com que ele falhe, fique
em desuso e vá para o lixo; seja por desgaste, por não cumprir mais a função desejada
ou por haver um novo produto cuja inovação tecnológica faça-o cumprir a função
mais eficientemente (Padilha; Bonifácio 2013, 36). Usado amplamente na produção de
tecnologias, a obsolescência planejada é um processo que mantém o modo de
produção capitalista, baseado na produção, consumo e descarte (Padilha; Bonifácio
2013, 37), e colapsa os ecossistemas e os ciclos naturais.
Considerando que a proposta de Hans Jonas nasce levando em conta as doutrinas e
paradigmas da sociedade tecnológica moderna, é notável como a ética da
reponsabilidade fornece as bases para proposições resolutivas ao caso da
obsolescência planejada, sugerindo princípios e valores que, se aplicados, podem
mitigar os processos negativos desse dilema.
5. LIMITES DA ÉTICAJONASIANA
Contudo, a proposta de Hans Jonas possui alguns aspectos que podem ser
considerados limites, os quais são suscitados por reflexões filosóficas de pensadores
contemporâneos, que se contrapõem e, de certa forma, criticam a ética jonasiana.
Dentre estes, destaco dois.
O primeiro diz respeito à problemática no estabelecimento do prognóstico. Vejamos: o
princípio responsabilidade possui como objeto e finalidade de ação o ser vulnerável, o
ainda-não-existente, o frágil, o perecível, o mais-ameaçado. Essa condição acaba por
gerar o estado de reflexibilidade na contemporaneidade onde incertezas e riscos são
manufaturados, configurando-se, assim, a chamada sociedade de risco. Ela é inerente
à globalização, individualização e reflexibilidade da contemporaneidade, a qual é
suscitada por Beck (2006, 2-7), nos termos em que se vislumbram os processos de
produção globalizados e os efeitos da intensiva industrialização. Nessa conjuntura,
surge a reflexão sobre esta sociedade que analisa o estilo de vida, seus riscos e efeitos
para a população (Beck 2006, 40).
Então, levando em conta que a inovação da ciência é uma realidade, a qual se dá de
forma bastante difusa, permanente e, por vezes, imprevisível, como prever todos os
riscos dos avanços científicos e tecnológicos? «O problema da previsibilidade ou
estimação dos riscos reside em como viabilizar este processo e assegurar-se dele»
(Miranda 2012, 179). Desde aí, surge, por fim, o outro ponto crítico à proposta de
Jonas: a referenciação de uma sociedade mais tecnológica.
Pois, se é necessário estimar ou prever os riscos da tecnologia difundida, como
fazê-lo? Há uma infinidade de variáveis que devem ser levantadas para se chegar à
previsibilidade, logo, como estabelecer o prognóstico? Através de mais
desenvolvimento científico e tecnológico? Em caso afirmativo, a resposta para tal não
mudaria em nada a diretiva técnica costumeira: a resolução de problemas técnicos
com a aplicação de mais técnica.
De modo geralista, Heidegger, em sua obra «A questão da técnica» (2002), adverte
que antes dos problemas técnicos serem propriamente considerados técnicos, eles são
de natureza filosófica. Ou seja, há uma necessidade notável de se pensar sobre a
aplicação social das tecnologias em questão, de modo que seus impactos sejam
considerados e que não haja fortalecimento do sistema de desenvolvimento da
tecnologia em si mesma, mas haja uma mudança de posicionamento quanto às
políticas públicas e à tomada de decisões a serem adotadas em ciência e tecnologia.
6. CONSIDERAÇÕES FINAIS
Consideradas as discussões e os resultados levantados aqui, pode-se dizer que a
sociedade tecnocientífica está sujeita a riscos que têm possibilitado ganhos e danos,
benefícios e malefícios. Saber lidar com isso, mantendo seus custos inevitáveis em
nível mínimo é o caminho mais sensato que se deve almejar (Kneller 1980, 269).
Por isso, o papel que a ciência e, sobretudo, a tecnologia, ocupam na vida das
pessoas, deve ser amplamente discutido, a fim de se chegar a um estado mais
prudente dessa relação, pois o que se tem visto ultimamente é que a busca por esse
conhecimento não atende mais à prerrogativa da qualidade de vida humana como
objetivo, mas é utilizado «de acordo com os meios dos que detêm poder» (Jonas 2006,
18). Castro e Miranda (2017), observando este panorama configurado pelo pensamento
de Jonas sobre a ciência e a técnica e sua condição ética, fazem a leitura de que a
técnica e a ciência passaram a ocupar um espaço crucial na sociedade, de tal forma
que revela o seu caráter ameaçador para a vida na terra. Por isso, não há como afirmar
a neutralidade tecnológica, dada a sua importância e as implicações de suas relações
com a sociedade e com o meio ambiente. Atribui-se, finalmente, um caráter
eminentemente ético à tecnologia (Castro; Miranda 2017, 247).
Essa ausência ou impotência e falta de controle humano sobre a técnica, segundo
Alencastro, produziu consequências não vislumbradas, situação que coloca em cheque
o real poder humano sobre esse domínio:
O domínio da técnica sobre a natureza, porém, veio acompanhado de inúmeros resultados
inesperados. A incrível extensão do poder alcançado pelo progresso técnico-científico, e da
necessidade imperativa do seu emprego, conduziu a humanidade a uma espécie de
impotência em administrar as consequências imprevisíveis e –muitas vezes– destrutivas
deste mesmo progresso (Alencastro 2009, 18).
Por isso, dilemas sociotécnicos, como o caso da obsolescência planejada, são cada
vez mais comuns, cujo teor ético da discussão resolutiva se funda na dimensão que a
tecnologia tem tomado em nossa sociedade, ocasionando o esgotamento dos recursos
naturais e a geração indiscriminada de resíduos.
Pensar nas futuras gerações é condição chave para a reversão desse quadro de
riscos. Aliás, há condições sociais mais claras do que aquelas impostas pela natureza?
«Nenhuma sociedade escapa da natureza e, por isso, devemos cuidar (…) para que ela
seja uma condição da existência das gerações futuras» (Porto-Gonçalves 2004, 9).
Nesta realidade total, Castro e Miranda refletem a ética da responsabilidade
elucidando finalmente que:
Para Jonas, torna-se premente pensar num modelo de ética para a civilização tecnológica que
seja capaz de sair da esfera antropocêntrica e utilitarista, e que reconduza a ação humana
baseada na responsabilidade e na prudência, no temor e na previsibilidade e em prol da
biosfera (Castro; Miranda 2017, 245-246).
Portanto, apesar de suas limitações, os valores intrínsecos à proposta ética de
Hans Jonas, como a responsabilidade, a prudência, a prevenção e a preservação da
vida, devem ser evidenciados, a fim de que não mais o modelo civilizatório baseado
exclusivamente no crescimento econômico (que aprofundou as diferenças em
sociedade) seja a prioridade política, mas, sim, o desenvolvimento humano e a
satisfação das aspirações sociais, prezando pelo cuidado com a natureza e pela
preservação da dignidade da vida humana.
REFERÊNCIAS BIBLIOGRÁFICAS
Alencastro Cunha, Mario S. (2009), «Hans Jonas e a proposta de uma ética para a civilização
tecnológica», Desenvolvimento e Meio Ambiente (19, enero-junio), 13-27.
Apel, Karl-Otto (1994), Estudos da moral moderna, Petrópolis, Vozes.
Beck, Ulrich (2006), La sociedad del riesgo: hacia una nueva modernidad, Barcelona, Paidós.
Castro Sulino, Maria R. de; Miranda, Angela L. (2017), «O Princípio Responsabilidade como
Avaliação das Políticas em Ciência e Tecnologia», Textos & Contextos (16, 1), 244-261.
Dagnino, Renato (2008), Neutralidade da ciência e determinismo tecnológico – um debate sobre a
tecnociência, Campinas, Unicamp.
Jonas, Hans (2013), Técnica, medicina e ética: sobre a prática do princípio responsabilidade, São Paulo,
Paulus.
Jonas, Hans (2006), O princípio responsabilidade: Ensaio de uma ética para a civilização tecnológica,
Tradução de Marijane Lisboa e Luiz Barros Montez, Rio de Janeiro, Contraponto: PUC-Rio.
Kneller, George. F. (1980), A ciência como atividade humana, Rio de Janeiro, Zahar.
Miranda, Angela L. (2012), Una ética para la civilización tecnológica?: Posibilidades y limites del princípio
de la responsabilidad de Hans Jonas, Alemanha/Espanha, Lap Lambert/EAE.
Padilha, Valquíria; Bonifácio, Renata C. (2013), «Obsolescência planejada: armadilha silenciosa na
sociedade de consumo», Le Monde Diplomatique Brasil (7, 74), 36-37.
Porto-Gonçalves, Carlos W. (2004), O desafio ambiental, Rio de Janeiro, Record.
Tugendhat, Ernst. (2000). Lições sobre ética, Petrópolis, Vozes.
DESEXTINCIÓN Y REWILDING,
UNA ALIANZACUESTIONABLE
INTRODUCCIÓN
hace
de
os intentos
nuevo
décadas,
ade
laaplicar
si
vida»
bienespecies
ellos
conocimiento
recientes
tiempoavances
científico
ha extintas
dey técnico disponible para «traer
L
1.
vienen produciéndose desde
la biología sintética han dado
renovadas esperanzas a lo que se conoce como «desextinción» (o «des-extinción»). Se
habla de recuperar especies como el uro (el antiguo toro salvaje), la paloma viajera
(passenger pigeon), el bucardo (también conocido como ibex o cabra montés
pirenaica), el moa (una gran ave no voladora de Nueva Zelanda), el mamut y hasta los
Neandertales, aunque no vamos a entrar aquí en la polémica sobre el propósito de
resucitar seres humanos extinguidos.
Según sus defensores, la desextinción podría desempeñar un papel relevante a la
hora de conservar la biodiversidad que se está perdiendo a ritmo acelerado en todo el
planeta. También sostienen que podría ayudar a retrotraer territorios y ecosistemas
degradados a unas condiciones pasadas, más «naturales» o «salvajes». Hasta ahora
este objetivo se está llevando a cabo mediante la reintroducción de animales de gran
tamaño, ya sean herbívoros o depredadores, junto con otras medidas. Es lo que se
conoce en inglés como «rewilding». El término tiene una traducción complicada al
castellano. Sería algo así como «asilvestrar», pero esta palabra no se usa con
frecuencia y cuando se hace es a menudo con connotaciones negativas. Según la RAE:
«asilvestrarse» es volverse inculto, agreste o salvaje. De modo que preferimos emplear
el término inglés.
El rewilding está dando lugar a una serie de controversias en las que no podemos
entrar aquí (véase por ejemplo de Cózar 2014). También en contra de la desextinción
existen diversos argumentos científicos, técnicos, conservacionistas y éticos. En esta
comunicación vamos a mencionarlos solo de pasada, centrándonos en el
cuestionamiento del valor de resucitar especies animales para los programas de
rewilding. Sobre todo, se presentará una posición menos habitual en este ámbito, y es
que la biología sintética para la desextinción ejemplifica, justamente, el tipo de
paradigma tecnocientífico que resulta pernicioso para el rewilding en particular, la
restauración ecológica en general y en definitiva, para la lucha contra la destrucción
de la biodiversidad y contra el resto de amenazas a la integridad de la biosfera.
2. DESEXTINCIÓN Y REWILDING
La desextinción busca «revivir» o «resucitar» especies que se extinguieron en un
pasado reciente o remoto. Se comenzó recurriendo a la cría selectiva (un ejemplo es la
desextinción de los uros, antiguo proyecto europeo que ha sido relanzado en los
últimos años). Las técnicas de clonación, que llegaron con posterioridad, se han
revelado como problemáticas, lo que ha conducido en los últimos años a dirigir las
miradas hacia la biología sintética. Ésta intenta reconstruir los genomas de especies
extintas partiendo del material genético conservado, combinándolo con el de
parientes próximos a la especie que sobreviven en la actualidad. Otro método es el de
la manipulación genética de especies existentes para ir acercándolas gradualmente a
las características propias de sus ancestros (Shapiro 2017).
A pesar de las expectativas creadas, no hay ningún programa de desextinción que
ya haya tenido éxito (si exceptuamos el que un bucardo o ibex pirenaico
supuestamente naciera de una cabra común y consiguiera sobrevivir diez minutos). Se
espera que para la próxima década se haya conseguido que al menos una especie
extinta vuelva a la vida. Hablando con rigor, no se trataría exactamente de la misma
especie ya que la gestación se produciría en un «huésped» o ejemplar de una especie
viva en la actualidad que sustituye en este papel a la extinta.
Por lo que se refiere al rewilding, se trata de recuperar o acentuar los aspectos
salvajes de una zona. Con el fin de restaurar las funciones y procesos de ecosistemas
degradados, el rewilding recurre por lo general a la reintroducción de megafauna en
grandes espacios. Ello produce una serie de efectos positivos en cascada en las cadenas
tróficas, favoreciendo así la recuperación de los ecosistemas (Svenning et al. 2016).
Ejemplos populares de rewilding son la reintroducción de los lobos en diversas
partes de Europa y Estados Unidos. En otros casos se están produciendo aumentos
significativos en las poblaciones de este emblemático depredador en aquellos lugares
en los que todavía se encontraban, como ha sucedido en el norte y oeste de la
península ibérica. En Europa, coincidiendo a menudo con el abandono de las
explotaciones agrícolas, se están reintroduciendo grandes herbívoros, como caballos,
bisontes y ciervos, entre otros (cf. Corlett 2016; Lorimer et al. 2015; puede visitarse
asimismo el sitio web Rewilding Europe: https://www.rewildingeurope.com/).
En el caso de el que las especies «originales» se hayan extinguido y por
consiguiente no sea posible repoblar con ellas, se podría recurrir a especies cercanas
genética o funcionalmente. Ahora bien, los expertos no se acaban de poner de acuerdo
sobre los problemas que esto pueda acarrear (Wilson 2017). La desextinción
permitiría, al menos en teoría, recuperar una especie y reintroducirla en un lugar con
la finalidad de recrear el ecosistema del que antaño formaba parte (Seddon et al.
2017). Por ello, sería fácilmente concebible una colaboración entre ciertos programas
de desextinción y de rewilding.
5. CONCLUSIONES
El debate sobre la desextinción presenta numerosas caras. En la actualidad se
comparan los pros y contras en términos técnicos, científicos, legales, éticos, socio
políticos y económicos. Aquí nos hemos centrado en un aspecto, a saber, la aplicación
de la biología sintética a la desextinción con el fin de promover el rewilding, esto es, la
reintroducción en un área de especies animales (grandes herbívoros y depredadores)
con objeto de restaurar una dinámica natural degradada por la acción humana. En
este sentido, se ha sugerido que el uso de la biología sintética para el rewilding sería
más pernicioso que positivo, atendiendo al paradigma tecnocientífico que dicha
disciplina evidencia. Se requiere como alternativa una actitud de cooperación con la
agencia natural, de modo que los elementos científicos y los medios técnicos asistan
de manera respetuosa y prudente en la recuperación de los hábitats naturales.
6. REFERENCIAS BIBLIOGRÁFICAS
Bennett, Joseph R., Maloney, Richard F., Steeves, Tammy E., Brazill-Boast, James, Possingham, Hugh
P., Seddon, Philip J. (2017), «Spending limited resources on de-extinction could lead to net
biodiversity loss», Nature Ecology & Evolution 1, 0053.
Cohen, Shlomo (2014), «The Ethics of De-Extinction», Nanoethics 8(2), 165-178.
Corlett, Richard T. (2016), «Restoration, Reintroduction, and Rewilding in a Changing World»,
Trends in Ecology & Evolution 31(6), 453-462.
de Cózar Escalante, José Manuel (2016), «La biología sintética y sus promesas por cumplir», Isegoría
55, 485-501.
de Cózar Escalante, José Manuel (2014), «¿Una cosmopolítica de lo salvaje? La composición técnica
del mundo natural», Revista Pléyade 14 (julio-diciembre), 97-118.
Donlan, C. Josh (2014), «De-extinction in a crisis discipline», Frontiers ofbiogeography 6(1), 25-28.
European Group on Ethics in Science and New Technologies (2010). Ethics of Synthetic Biology,
Comisión Europea, Bruselas, 18 noviembre.
Giese, Bernd, Pade, Christian, Wigger, Henning, von Gleich, Arnim, editores (2015), Synthetic Biology.
Character and Impact, Berlin, Springer.
Grunwald, Armin (2015), «Synthetic Biology as Technoscience and the EEE Concept of
Responsibilitiy», en Giese et al. (eds.) Synthetic Biology. Character and Impact, Berlin, Springer,
249-265.
Lorimer, Jamie et al. (2015), «Rewilding: Science, Practice, and Politics», Annual Review of
Environment and Resources 40, 39-62.
Nordmann, Alfred (2015), «Sythetic Biology at the Limits of Science», en Giese et al. (eds.) Synthetic
Biology. Character and Impact, Berlin, Springer, 31-58.
Oksanen, Markku, Siipi, Helena (2014), The Ethics of Animal Re-creation and Modification: Reviving,
Rewilding, Restoring, Palgrave Macmillan.
Sandler, Ronald (2014), «The Ethics of Reviving Long Extinct Species», Conservation Biology 28(2),
354-360.
Schmidt, Jan C. (2015), «Synthetic Biology as Late-Modern Technology. Inquiring into the Rhetoric
and Reality of a New Technoscientific Wave», en Giese et al. (eds.) Synthetic Biology. Character
and Impact, Berlin, Springer, 1-30.
Seddon, Philip et al. (2017), «The ecology of de-extinction», Functional Ecology. Special Feature, mayo,
31.
Shapiro, Beth (2017), «Pathways to de-extinction: how close can we getto resurrection of an extinct
species?», Functional Ecology 31(5), 996-1002.
Svenning, Jens Christian et al. (2016), «Science for a wilder Anthropocene: Synthesis and future
directions for trophic rewilding research», Proceedings of the National Academy of Sciences 113,
898-906.
Wilson, Edward O. (2017), Medio planeta, Madrid, Errata Naturae editores.
TRANSHUMANISMO Y NATURALEZA HUMANA
RESUMEN: Pese a que es un movimiento cultural que incluye orientaciones muy diversas, el
transhumanismo podría ser caracterizado como la búsqueda del mejoramiento humano (físico,
mental, moral) mediante procedimientos tecnológicos, fundamentalmente a través de las
biotecnologías, de la robótica y de la Inteligencia Artificial. En su versión más radical,
promueve el advenimiento de una nueva especie posthumana lograda por estos medios. Se
pretende, al fin y al cabo, tomar en nuestras manos las riendas de nuestra propia evolución y,
con ello, culminar un proceso de artificialización y ortopedización de toda la naturaleza. Es
necesario tomarse en serio el discurso transhumanista y reflexionar sobre su verdadero
alcance. No obstante, la crítica más habitual, que acusa al transhumanismo de pretender
transformar de forma ilegítima e irresponsable una naturaleza humana inviolable y
fundamento de la dignidad humana, encierra debilidades insalvables.
Palabras clave: Transhumanismo; posthumanismo; naturaleza humana; biomejoramiento
humano; falacia naturalista.
latención
para
transhumanismo
el es uno de los movimientos filosóficos y culturales que más
Con respecto al primer punto hay que decir que, desde la perspectiva de los
defensores del transhumanismo, lo que está en discusión es precisamente que haya un
orden natural inviolable, o una naturaleza humana estable y con carácter normativo.
De hecho, esta última idea parece ya abandonada si tomamos en cuenta el punto de
vista de la biología evolucionista actual (cf. Hull 1986; Buller 2006; Fenton 2006;
Lewens 2012; Godfrey-Smith 2014, 139-143). Como escribe un defensor de esta tesis, el
filósofo de la biología Tim Lewens, «[e]n círculos bioéticos ha habido en años recientes
muchos debates acerca de la sensatez de los intentos por alterar la naturaleza humana
[…]. Según algunos filósofos de la biología (y biólogos) esto es como preguntarse sobre
la sensatez de modificar a un unicornio. No hay tal cosa como un unicornio y algunos
mantienen que tampoco hay tal cosa como la naturaleza humana». (Lewens 2012, 459).
La razón que se aduce para sostener que no hay tal cosa como la naturaleza
humana es muy simple: desde el punto de vista de la biología evolucionista no cabe
concebir a una especie como una clase natural definida por un conjunto de
propiedades todas ellas individualmente necesarias y conjuntamente suficientes (por
una «esencia» si queremos utilizar el viejo concepto) para ser miembro de esa clase.
No es que haya precisamente un consenso acerca de cómo entender la noción de
especie, más bien todo lo contrario. No lo hay entre los filósofos de la biología en lo
que concierne a la cuestión de si las especies son clases (puesto que agrupan a
individuos concretos en función de sus propiedades o de ciertas relaciones biológicas
relevantes) o más bien son ellas mismas individuos concretos (puesto que tienen
localización espacio-temporal, que les marca un principio y un final, y se ven
sometidas a cambios). Y no lo hay entre los biólogos acerca de cómo definir una
especie, si por sus características morfológicas, por sus relaciones reproductivas, por
sus relaciones filogenéticas, por sus estrategias adaptativas, etc. Pero en lo que
prácticamente todo el mundo coincide es en rechazar la idea de que hay en cada
especie un conjunto de rasgos esenciales, ausentes en otras especies y presentes en
todos los miembros de esa especie, que definen lo que podríamos llamar la
«naturaleza» de dicha especie (cf. Diéguez 2012, cap. 9, y para un planteamiento
contrario, Devitt 2008). Cualquier característica que sea compartida por todos los
miembros de una especie es probable que esté presente también en otras especies, y
las que sean exclusivas de esa especie, no estarán probablemente presentes en todos
los miembros de la misma (cf. Samuels 2012).
¿No hay entonces ninguna forma de salvar la noción de naturaleza humana si
hemos de ser coherentes con una visión darwinista actualizada de las especies
biológicas? Como sugiere la expresión «naturaleza evolucionada» empleada por
Godfrey-Smith (2014, 142), sí que la hay, pero hemos de dejar atrás la idea de
propiedades esenciales que caracterizan a cualquier miembro de la especie. De hecho,
ha habido varias propuestas recientes al respecto (cf. Machery 2008, Samuels 2012,
Ramsey 2013, Klasios 2016). Pero todas ellas coinciden en que los rasgos que puedan
considerarse como característicos de la naturaleza humana son productos
contingentes de la evolución biológica y, por ende, están sujetos a posibles nuevos
cambios evolutivos. O dicho de otra forma, la «naturaleza humana» no es inmutable y
nunca lo ha sido; y no permite sustentar criterios absolutos de pertenencia a nuestra
especie. A lo sumo, la naturaleza humana estaría constituida por agrupaciones de
rasgos que muestran una tendencia a reforzarse mutuamente debido a mecanismos
subyacentes, biológicos y de otro tipo. Es de suponer que un individuo sometido a
grandes modificaciones genéticas, o a cambios fenotípicos radicales producto de su
integración con mecanismos cibernéticos, dejaría de ser miembro de la especie
humana a partir de un cierto punto, pero ese punto no es preciso ni es fácil de
determinar. En definitiva, los defensores actuales de la noción de naturaleza humana
están obligados a ligarla (como no podía ser menos) al hecho de la evolución biológica,
y eso implica que las características o mecanismos que la constituyen forman un nexo
temporal y variable que puede encontrarse en diversas modalidades en los diferentes
individuos.
Es verdad que algunas agrupaciones de rasgos suelen ser vistas como las
esperables en los individuos «normales» de la especie, pero dándosele aquí al término
«normal» un sentido meramente cuantitativo o estadístico, y descartando cualquier
sentido normativo. Si la evolución biológica cambia esos rasgos, no se ve por qué
razón no debiera cambiarlos el propio ser humano a través de su tecnología en caso de
que fuera factible y deseable hacerlo, asumiendo que tras sopesar detenidamente la
cuestión se determinara que dicha modificación no daña a terceros y que en la
decisión de los individuos se respeta su libertad. Como aduce Allen Buchanan, hasta
ahora ha sido normal en nuestra especie la reproducción sexual, pero este hecho no
puede servir para sustentar la tesis de que la reproducción sexual es la única forma
moralmente legítima en la que los seres humanos han de reproducirse porque es la
única acorde con la dignidad de su naturaleza (cf. Buchanan 2009).
Aunque esto suene a oxímoron, no hay ningún sentido normativo absoluto que
pueda darse a lo que la evolución ha establecido en determinado momento como
«normal». Para obtener consecuencias normativas de lo que las ciencias empíricas
puedan determinar acerca de las propiedades incluidas en el cluster de nuestra
especie, habría que añadir premisas morales que no son obtenibles de las propiedades
mismas. Habría que sostener, por ejemplo, que el mantenimiento de esa «normalidad»
es un fin deseable por sí mismo, y esto implicaría la introducción de posiciones
morales concretas. Cierto es que la llamada «falacia naturalista» es hoy un asunto
controvertido, y que la distinción tajante entre hechos y valores tiende a desdibujarse
(cf. Putnam 2002, Kitcher 2011, cap. 7 y Harman 2012), pero sigue siendo incontestable
que ninguna inferencia lógica correcta permite pasar de premisas exclusivamente
descriptivas a una conclusión normativa.
No obstante, la crítica al transhumanismo no tiene por qué basarse
necesariamente en una idea fuerte de naturaleza humana. Hay otros enfoques críticos
que permiten hacer una evaluación más equilibrada, sobre la que quizás podría
edificarse en el futuro un mayor acuerdo social. En particular, parece mejor dilucidar
con detenimiento las posibles consecuencias negativas que el desarrollo de estas
técnicas podrían tener (efectos secundarios sobre la salud o la calidad vital del
organismo, aumento de las desigualdades sociales, disminución efectiva de la libertad
de elección de los padres, etc.); consecuencias que harían desaconsejable su
implementación sin ningún tipo de control. Por otra parte, Tanto el discurso acerca
del mejoramiento genético como una cierta parte de las justificaciones que se ofrecen
para fomentar la investigación en biología sintética parten de una visión de la biología
centrada en el gen, al que sitúan como controlador del desarrollo y como responsable
último de la forma final de los rasgos funcionales. Esta visión de la biología está, sin
embargo, cada vez más cuestionada entre los biólogos y los filósofos de la biología.
Así pues, si alguna vez el mejoramiento genético aplicado a seres humanos se
vuelve una tecnología segura en sus efectos (lo que a estas alturas resulta dudoso,
excepto quizás en algunos casos concretos), será necesario un análisis detallado y caso
por caso de los posibles costes y beneficios, y habrá que sopesar los resultados. Así
como será previsiblemente inútil cualquier condena global a este tipo de tecnología,
es de suponer que tampoco despertará una gran aprobación en la opinión pública la
aceptación acrítica de cualquier modificación genética en la línea germinal que
alguien estime deseable.
En el análisis de costes y beneficios habrá que saber situar el hecho posible de que
estas tecnologías puedan dejar atrás una vez más los intereses de las personas
socialmente más desfavorecidas, tanto en nuestros países, como en el mundo en su
totalidad. Habrá que tener presente las prioridades de la población y no sólo los
intereses de una minoría. Habrá que considerar las nuevas desigualdades que surgirán
y si éstas son aceptables desde una perspectiva democrática. Y, ciertamente, dada la
magnitud de los problemas políticos y sociales que están detrás del posible uso de las
tecnologías de mejoramiento, se hace cada vez más evidente que esos análisis
coste/beneficio son insuficientes para analizar todos los aspectos relevantes de la
cuestión. Habría que pensar también en los fines que se desea conseguir.
En definitiva, la evaluación de casos concretos de biomejoramiento será en el
futuro la estrategia más viable para establecer cualquier juicio moral relativo a este
asunto y que esa evaluación de casos, movida sin duda por una preocupación legítima,
si bien reclama una idea previa, a ser posible empíricamente fundamentada y no
meramente especulativa, de lo que es beneficioso para el bienestar humano, no
necesita en absoluto presuponer la existencia de una naturaleza humana esencialista
que funcione como base de dicha evaluación.
A lo que el crítico debe aspirar es a persuadir de que hay que tomar en serio los
posibles escenarios negativos y que la cautela en este asunto, como ha señalado Hans
Jonas (1995, 309-10), es una expresión de valentía, no de cobardía. No resulta muy
agradable el pensamiento de que nuestra especie pueda ser llevada a su extinción a
causa del mejoramiento radical, por mucho que la especie posthumana que nos
sucediera viera el cambio como un progreso (cf. Agar 2010). Pocos son, sin embargo,
los que rechazan de plano cualquier posibilidad de aplicación de estas técnicas. Un
crítico tan estricto como Fukuyama (2002, cap. 10), por ejemplo, se opone tanto a una
política de absoluto laissez-faire como a una prohibición total, y aboga por el desarrollo
de una normativa internacional capaz de regular su uso. Él considera que tal
normativa es factible y que hay ya notables precedentes que están cumpliendo
adecuadamente su función.
La propia comunidad científica, o al menos una parte significativa de ella, es
consciente de la necesidad de ser precavidos, y así lo han puesto de manifiesto un
artículo publicado en la revista Nature (Lampier et al. 2015) y otro en Science
(Baltimore et al. 2015), pidiendo ambos una moratoria en la investigación sobre la
edición de genes en la línea germinal en seres humanos, facilitada enormemente por
la técnica CRISPR/cas9. El primero de esos artículos menciona expresamente como
una de sus motivaciones la preocupación por que un uso meramente terapéutico
pueda abrir paso en un futuro no lejano a intervenciones mejoradoras.
No todos los investigadores en este campo creen necesaria, sin embargo, una
moratoria. Para algunos bastaría con la autorregulación responsable de la comunidad
científica y con mantener, al menos por un tiempo, la investigación ligada a
aplicaciones terapéuticas únicamente en los genes de las células somáticas, algo a lo
que ya obliga la normativa europea (cf. Lundberg y Novak 2015, Hawkes 2015). Otros
son más radicales y creen que es contraproducente e inútil cualquier moratoria en la
investigación sobre edición de genes humanos, incluyendo la línea germinal, porque se
estaría obstaculizando el progreso científico y sus potenciales beneficios, y porque
tarde o temprano se llevará a efecto en algún país una modificación en dicha línea (cf.
Savulescu et al. 2015, Miller 2015, Bosley et al. 2015). Pero en todo caso, el debate ético
sobre esta cuestión está aún en sus comienzos. En lo que parece haber un amplio
consenso –un consenso que incluiría a algunos de los críticos– es en la necesidad de
establecer controles estrictos sobre el desarrollo de cualquier técnica que pueda ser
utilizada para tal propósito. Y un criterio a tener muy en cuenta a la hora de
establecer los mecanismos de control es que la opinión de los ciudadanos debe ser
tomada en cuenta mediante los cauces apropiados.
La determinación de la agenda de investigación no debería estar exclusivamente
en manos de políticos tecnócratas o de las empresas biotecnológicas implicadas. El
porcentaje de la investigación que estas empresas financian crece desde hace décadas,
aumentando también con ello el secretismo en lo que respecta a los proyectos en
marcha, a los procedimientos empleados, y a los objetivos finales; y esto constituye la
principal razón por la que la propuesta de autorregulación por parte de la comunidad
científica es claramente insuficiente en la actualidad. Hay demasiados intereses
particulares en juego como para que esa autorregulación pueda ser puesta
verdaderamente al servicio del público. Éstas son, pues, en mi opinión, las cuestiones
relevantes (quién controla, a qué objetivos se encamina la investigación y por qué
razones, qué intereses se satisfacen prioritariamente, qué garantías de seguridad se
ofrecen…), y no tanto la de la pretendida violación de la naturaleza humana. Por
decirlo de forma escueta, estamos ante un problema político más que ante un
problema ético. Hasta ahora el énfasis del análisis crítico ha sido puesto en las
cuestiones éticas, va siendo hora de prestar más atención a las políticas.
REFERENCIAS
Agar, N. (2010), Humanity’s End: Why We Should Reject Radical Enhancement, Cambridge, MA: The MIT
Press.
Baltimore, D. et al. (2015), «A Prudent Path Forward for Genomic Engineering and Germline Gene
Modification», Science, 348(6230), pp. 36-38.
Bosley, K. et al. (2015), «CRISPR Germline Engineering – The Community Speaks», Nature
Biotechnology, 33(5), pp. 478-486.
Buchanan, A. (2011), Beyond Humanity? The Ethics of Biomedical Enhancement, Oxford: Oxford
University Press.
Buller, D. J. (2006), Adapting Minds. Evolutionary Psychology and the Persistent Quest for Human Nature,
Cambridge, MA: The MIT Press.
Devitt, M., 2008, «Resurrecting Biological Essentialism», Philosophy of Science, 75: 344-382.
Diéguez, A. (2012), La vida bajo escrutinio. Una introducción a la filosofía de la biología, Barcelona:
Biblioteca Buridán.
Fenton, E. (2006), «Liberal Eugenics and Human Nature: Against Habermas», Hasting Center Report,
36(6), pp. 35-42.
Godfrey-Smith, P. (2014), Philosophy of Biology, Princeton: Princeton University Press.
Hawkes, N. (2015), «UK scientists reject call for moratorium on gene editing», British Medical Journal,
350, p. h2601.
Harman, O. (2012), «Is the Naturalistic Fallacy Dead (and IfSo, Ought It Be)», Journal of the History of
Biology, 45, pp. 557-572.
Hull, D. (1986), «On human nature», PSA: Proceedings of the Biennal Meeting of the Philosophy of Science
Association, 2, pp. 3-13.
Kitcher, Ph. (2011), The Ethical Project, Cambridge, MA: Harvard University Press.
Klasios, J. (2016), «Evolutionizing human nature», New Ideas in Psychology, 40, pp. 103-114.
Lampier, E. et al. (2015), «Don’t edit the human germ line», Nature, 519(7544), pp. 410-11.
Lewens, T. (2012), «Human Nature: The Very Idea», Philosophy and Technology, 25, pp. 459-474.
Lundberg, A. y R. Novak (2015), «CRISPR-Cas Gene Editing to Cure Serious Diseases: Treat the
Patient, Not the Germ Line», The American Journal of Bioethics, 25(12), pp. 38-40.
Machery, E. (2008), «A Plea for Human Nature», Philosophical Psychology, 21(3), pp. 321-329.
Miller, H. I. (2015), «Recasting Asilomar’s Lessons for Human Germline Editing», Nature
Biotechnology, 33(11), pp. 1132-1134.
Putnam, H. (2002), The Collapse of the Fact/Value Dichotomy and Other Essays, Cambridge, MA: Harvard
University Press.
Ramsey, G. (2013), «Human Nature in a Post-essentialist World», Philosophy of Science, Vol. 80, No. 5,
pp. 983-993.
Samuels, R. (2012), «Science and Human Nature», Royal Institute of Philosophy Supplement, 70, pp 1-28.
Savulescu, J., J. Pugh, Th. Douglas y Ch. Gyngell (2015), «The Moral Imperative to Continue Gene
Editing Research on Human Embryos», Protein Cell, 6(7), pp. 476-479.
REPENSAR LA CULTURA CIENTÍFICO-TECNOLÓGICA A LA LUZ
DEL ANTROPOCENO: LÍMITES Y POSIBILIDADES DE LA
AGENCIA HUMANA
(2) Departamento de Filosofía, Facultad de Letras, Universidad del País Vasco UPV/EHU,
Vitoria-Gasteiz
luis.garagalza@ehu.eus
(3) Departamento de Filosofía, Facultad de Letras, Universidad del País Vasco UPV/EHU,
Vitoria-Gasteiz
hannot.rodriguez@ehu.eus
RESUMEN: Uno de los problemas teóricos que plantea la llegada del Antropoceno radica en la
necesidad de encontrar categorías conceptuales adecuadas para pensar las relaciones
emergentes entre la historia natural y la social. En este contexto, este trabajo explora algunas
categorías tomadas de la Ontología-Orientada-a-Objetos (OOO) para ver de qué manera éstas
nos pueden ayudar a pensar el y en el Antropoceno desde una perspectiva relacional y no
reduccionista. Más en concreto, se examina de qué manera nociones de la OOO como las de
«relación», «oscuridad» y «fuerza gravitacional» permiten abordar la cuestión de la brecha
existente entre nuestros juicios teóricos acerca de fenómenos característicos del Antropoceno,
como el cambio climático, y nuestra falta de acción ante las responsabilidades que se derivan
de estos juicios. Desde esta perspectiva, se concluye señalando la importancia de desarrollar
estrategias de mediación tecnológica que potencien el impacto social de las amenazas
medioambientales.
Palabras clave: Antropoceno; Ontología-Orientada-a-Objetos (OOO); «Fuerza gravitacional»;
Redes de objetos; Mediación tecnológica; Responsabilidad.
1. INTRODUCCIÓN
L a Unión Internacional de las Ciencias Geológicas (IUGS, de sus siglas en inglés)
ha iniciado el proceso necesario para declarar oficialmente la conclusión del
Holoceno, la época en la que hemos vivido los últimos 10.000 años, y nuestra
entrada, con ello, en el Antropoceno, una nueva época geológica caracterizada por el
hecho de que el ser humano, la actividad humana, se ha convertido en una fuerza
geológica con un impacto decisivo sobre el sistema Tierra.
Parece ya difícil de negar que esta entrada en el Antropoceno planteará algunos de
los más importantes retos prácticos –políticos y tecnológicos– a los que el ser humano
deberá hacer frente en los próximos tiempos. Sin embargo, el punto de partida de
nuestra exposición es la consideración de que, además de estas urgencias de carácter
práctico, el Antropoceno plantea también una serie de importantes retos de orden
teórico y conceptual. En este sentido, defenderemos que la entrada en el Antropoceno
–o quizás de forma más precisa: nuestra constatación de que entramos en esta nueva
época– exige cuestionar algunas de nuestras categorías heredadas de pensamiento y,
al mismo tiempo, indica algunos caminos en los que adentrarse a la hora de explorar
nuevas categorías. Además, defenderemos que este cuestionamiento teórico de
nuestro horizonte de pensamiento resulta fundamental para abordar apropiadamente
los problemas de orden práctico.
De este modo, en un primer momento esbozaremos algunos de los problemas
teóricos que plantea el Antropoceno, prestando especial atención a las nuevas
relaciones emergentes entre la historia natural y la social. En segundo lugar,
partiendo de la consideración de que el Antropoceno exige la exploración de nuevas
narrativas y formas de pensamiento, tomaremos prestadas algunas categorías
conceptuales de la Ontología-Orientada-a-Objetos (OOO), con el fin de superar
planteamientos dicotómicos y reificadores heredados acerca de las relaciones ciencia
tecnología-sociedad-naturaleza. Por último, exploraremos de qué manera estas
categorías nos pueden ayudar a pensar y a actuar en el Antropoceno en términos
relacionales y no reduccionistas.
2. Esto nos lleva a una segunda idea: en estas redes ciertos objetos, al menos en
determinados momentos, apenas afectan al despliegue de otros objetos con los que se
relacionan, mientras que, por otro lado, otros afectan poderosamente el despliegue y
el desarrollo del resto. Levi Bryant denomina «fuerza gravitacional» a esta capacidad
que poseen los objetos para, en diferentes maneras, condicionar y alterar la
manifestación y el despliegue de otros objetos con los que entran en relación (Bryant
2014). Conforme a esta noción, la «gravitación» de la que nos habla la física no sería
sino un caso particular de esta «fuerza gravitacional». En este sentido, el Sol sería un
objeto dotado de una extrema fuerza gravitacional, no sólo, aunque también, porque
hace orbitar a la Tierra en torno a sí, sino porque su concurso resulta determinante en
el modo en que la práctica totalidad de los objetos de ese sistema se manifiestan y se
despliegan; y sin su presencia y acción todo sería radicalmente diferente sobre
nuestro planeta. Pero encontramos este tipo de fuerzas gravitacionales no sólo en
sistemas «naturales» sino también «sociales» (oro, petróleo) o «intelectuales»
(determinada noción de «naturaleza» o «ser» en el pensamiento occidental…). En este
sentido, la tarea de hacer tanto una «tipología» como una «cartografía» de este tipo
de «fuerzas» parece algo decisivo para tratar de comprender cualquier proceso de
cambio –o de persistencia– tanto en el plano «natural», «social» o «intelectual». Y, por
supuesto, el Antropoceno no es ninguna excepción.
En primer lugar, la relación entre dos objetos nunca agota la totalidad de dichos
objetos, esto es, cada uno de ellos sólo queda, en el mejor de los casos, parcialmente
registrado por el otro. La tesis fuerte de la OOO es la de que éste es el caso en toda
relación entre objetos; pero, por quedarnos sólo con el caso de las relaciones entre
humanos y otros objetos: nosotros, los humanos, sólo registramos parcialmente
aquellos objetos con los que nos relacionamos; sólo registramos aquellos aspectos de
los objetos que son perceptibles para nosotros. Además, y esto es algo que tendrá
cierta importancia en lo que trataremos de apuntar al final, la mediación de otros
objetos, como la mediación de ciertos artefactos tecnológicos, tiene la potencialidad
de alterar el modo en que estos objetos se manifiestan y son registrados. Así, por
ejemplo, gracias a la mediación tecnológica hemos tenido noticias de los millones de
bacterias y otros microorganismos que forman parte constitutiva de nuestra propia
naturaleza; o de los efectos de la radiación sobre nuestra salud.
Pero hay otro sentido del término oscuridad que también resulta interesante.
Según la OOO todo objeto es un objeto «oscuro» también en el sentido de que, si antes
señalábamos que cada objeto siempre se manifiesta y despliega desde una
determinada red o entramado de relaciones con otras cosas, es preciso también
observar, y subrayar, que todo objeto posee, por principio, una serie de
potencialidades, de posibilidades de despliegue y manifestación, que no resultan
actualizadas en cada una de estas redes o entramados de relaciones. De este modo,
ante cualquier variación en la red, estas potencialidades ocultas y desconocidas
siempre se pueden actualizar e irrumpir mostrando nuevas potencialidades,
propiedades, capacidades del objeto en cuestión (Bryant 2011). Los ejemplos de esto
en la historia del planeta Tierra son abundantes e ilustrativos: desde el caso del
oxígeno, en un principio residuo tóxico y extremadamente destructivo que sin
embargo terminó constituyendo uno de los sostenes primordiales de la vida, a
cualquier caso de «exaptación» biológica (Gould y Vrba 1982), en la que diferentes
elementos de los seres vivos despliegan capacidades y funcionalidades en un principio
imprevistas y sorprendentes.
AGRADECIMIENTOS
Este trabajo se ha realizado en el marco del proyecto de investigación EHUA15/13,
financiado por la Universidad del País Vasco UPV/EHU. La participación de H.
Rodríguez también guarda relación con los proyectos IT644-13 (Departamento de
Educación, Política Lingüística y Cultura del Gobierno Vasco) y FFI2015-69792-R
(Ministerio de Economía y Competitividad, y Fondo Europeo de Desarrollo Regional).
5. REFERENCIAS BIBLIOGRÁFICAS
Bryant, Levi (2011), The Democracy of Objects, Michigan, Open Humanities Press.
Bryant, Levi (2014), Onto-cartography: An Ontology of Machines and Media, Edimburgo, Edinburgh
University Press.
Chakarbarty, Dipesh (2009), «The Climate ofHistory: Four Theses», Critical Inquiry 35 (2), 197-222.
Gould, Stephen Jay, Vrba, Elisabeth S. (1982), «Exaptation-A Missing Term in the Science of Form»,
Paleobiology 8 (1), 4-15.
Grunwald, Armin (2016), «Diverging pathways to overcoming the environmental crisis: A critique
of eco-modernism from a technology assessment perspective», Journal of Cleaner production
(article in press), https://doi.org/10.1016/j.jclepro.2016.07.212.
Hamilton, Clive (2010), Requiem for a Species. Why We Resist the Truth about Climate Change, Nueva
York, Earthscan.
Harman, Graham (2009), Prince ofNetworks: Bruno Latour and Metaphysics, Melbourne, re.press.
Lövbrand, Eva, Beck, Silke, Chilvers, Jason, Forsyth, Tim, Hedrén, Johan, Hulme, Mike, Lidskog, Rolf,
Vasileiadou, Eleftheria (2015), «Who speaks for the future of Earth? How critical social science
can extend the conversation on the Anthropocene», Global Environmental Change 32, 211-218.
Morton, Timothy (2010), The Ecological Thought, Cambridge y Londres, Harvard University Press.
Steffen, Will, Grinevald, Jaques, Crutzen, Paul, McNeill, John (2011), «The Anthropocene: conceptual
and historical perspectives», Philosophical Transactions of the Royal Society 369 (1938), 842-867.
LA INNOVACIÓN INCLUSIVA COMO UNA RED DE
INTERACCIÓN CONTINGENTE: LA CORPORACIÓN
MONDRAGÓN COMO CONSTITUCIÓN SOCIO-TÉCNICA
RESUMEN: El objetivo de este trabajo se centra en explicar la innovación inclusiva como una
red de interacción contingente a través de la constitución socio-técnica de la Corporación
Mondragón (CM), que ha sido foco de múltiples análisis que preguntan por las claves de su
éxito, su cultura, su tecnología, su gestión y su modelo de innovación, la cual incluye más de
11.875 millones de euros en ingresos anuales, 260 empresas cooperativas, 15 centros
tecnológicos, 74.117 cooperativistas y con filiales productivas y delegaciones corporativas en 41
países y ventas en más de 150. Por tanto, el trabajo está dividido en tres partes. En la primera,
describiremos una breve aproximación al concepto de innovación inclusiva. En la segunda,
abordaremos la integración socio-técnica de los aspectos societales, éticos, culturales,
ambientales y aspectos en las prácticas científicas y técnicas de la Corporación Mondragón
desde la constitución del primer artefacto tecnológico, el hornillo de gas Maite. El hornillo
«Maite» (1956) es el primer producto de diseño de Tagor (antes Ulgor, ahora Fagor).
Finalmente, en la tercera parte presentaré algunos hallazgos para comprender la innovación
inclusiva como una red de interacción contingente a través de la constitución socio-técnica de
la Corporación Mondragón.
Palabras clave: Hornillo Maite; País Vasco; Comunidad de integración.
INNOVACIÓN INCLUSIVA
finales de la década de los noventa surge el interés por replantear la
A
1.
problemática asociada a la inclusión de sectores sociales desfavorecidos y el
estudio de la innovación para generar satisfactores para sus necesidades. Por
ejemplo, «el conocimiento para el desarrollo» fue uno de los ejes temáticos centrales
durante la segunda Conferencia Internacional en Innovación y Política Tecnológica,
conocida como la agenda de Lisboa (1998). Las reflexiones concluyeron que la
producción de conocimiento incrementa la riqueza pero no necesariamente mejora la
distribución de la misma (Conceicao, et al. 2001). A partir de las reflexiones de Lisboa
y diversas críticas esbozadas al llamado «mainstream de la innovación» (Heeks 2013;
Foster 2014; Klochikhin 2012; Nugroho 2014) en donde ha predominado la idea de que
la innovación está dirigida a consumidores de ingresos medios y altos, la producción
de bienes y servicios que mejoren el bienestar de los consumidores y/o la producción
de nuevos procesos que optimicen la productividad de los productores formales
nuevos, evidencian que la innovación se constituye para élites que tienen acceso a
esas innovaciones.
Sin embargo, estos fundamentos operativos e ideológicos de la innovación han
sido progresivamente –y de manera relativa– cuestionados a la luz del reconocimiento
institucional de que la innovación debe concebirse como un proceso complejo, es
decir, dependiente de la interacción de una amplia variedad de actores,
consideraciones, demandas, expectativas y valores. Eizaguirre et al. (2016) nos dicen
que en años recientes las políticas de innovación europeas han mostrado un interés
creciente, sobre todo a partir de comienzos de la primera década de este siglo XXI, por
integrar las demandas sociales en los procesos de innovación (e.g. EC 2001, 2002,
2003). La Unión Europea parece haberse hecho eco de este diagnóstico al reconocer
recientemente de manera más explícita la necesidad de adoptar un enfoque más
amplio y complejo, o político, respecto a la responsabilidad, no centrado en la gestión
de innovaciones tecnológicas per se –cuya valoración se produce en función de unos
riesgos y problemas «objetivamente» delimitados y de una serie de supuestos de
competitividad, bienestar y progreso mantenidos al margen de lo cuestionable–, sino
en «the whole innovation process» (Von Schomberg 2015, 2).
Como ejemplo, podemos observar el 8.º Programa Marco de I+D (2014-2020),
también conocido como «Horizon 2020», que reclama abiertamente una investigación
e innovación heterogéneamente, o inclusivamente, constituidas desde un enfoque de
«Ciencia con y para la Sociedad». Este enfoque viene a subrayar el valor de la
investigación y la innovación para la resolución de problemas acuciantes de tipo
social y medioambiental dando como resultado una «Investigación e Innovación
Responsables» (RRI – Responsible Research and Innovation), que implicaría una
subversión de las fronteras disciplinares y sociales de la investigación. Bajo esta
perspectiva, el reto es explicar los procesos de la inclusión a través de análisis de
casos, que consisten en hacer frente a ejemplos de innovaciones inclusivas, dando
paso a la descripción de la constitución de redes interacción. A saber, y
respectivamente (pero interactivamente), la intención y la capacidad de: (i) concebir y
considerar una amplia variedad de posibles escenarios ligados a la innovación; (ii)
repensar y reconsiderar preferencias, valores y conocimientos a la luz de la
formulación de esos escenarios; (iii) abrir esas visiones, preferencias, valores y
conocimientos a procesos de deliberación colectiva; y (iv) desarrollar mecanismos
efectivos de gobernanza que institucionalicen la constitución colectiva, o inclusiva, de
la innovación (Owen, Stilgoe, Macnaghten, Gorman, Fisher & Guston 2013; Stilgoe,
Owen & Macnaghten 2013) (Eizaguirre et al. 2016).
4. CONCLUSIONES
Bajo el enfoque sociotécnico el análisis de MCC su pudo comprender que la
importancia de la innovación radica en la participación de sus agentes que
determinan las decisiones del grupo en conjunto. Existen canales que permiten ver
qué tipo de problemas requieren abrir nuevos centros de investigación o cooperativas.
Podemos concluir y destacar la necesidad de realizar estudios de innovación,
considerando la diversidad cultural de nuestras sociedades, desde una perspectiva
pluralista que permita incorporar los aspectos sociales y culturales que subyacen en la
innovación, sin olvidar que en este caso, la innovación no debe estar centrada solo en
el crecimiento económico sino estar dirigido al desarrollo de capacidades, y
condiciones que propicien la construcción de una sociedad justa, democrática y
plural. Desde esta perspectiva, las propuestas de solución a los problemas sociales y
ambientales deben generarse a partir de una participación pública de los actores
involucrados, especialmente de quienes enfrentan los problemas, en las sociedades de
conocimientos.
AGRADECIMIENTOS
Este artículo es posible gracias a la Beca Posdoctoral otorgada por la Secretaria de
Ciencia, Tecnología e Innovación de la Ciudad de México (SECITI) 089/2015 para
realizar una estancia en posdoctoral y de investigación en la Universidad del País
Vasco (UPV/EHU), España.
5. REFERENCIAS BIBLIOGRÁFICAS
Altuna, L. (2008), La experiencia cooperativa de Mondragón: una síntesis general, España, Lanki-Huhezi.
Conceição, P., D. V. Gibson, M. V. Heitor y G. Sirilli (2001),«Knowledge for Inclusive Development:
The Challenge of Globally Integrated Learning and Implications for Science and Technology
Policy», en Technological Forecasting and Social Change (66).
Eizaguirre, A.; Rodríguez, H. y A. Ibarra (2016), Politicizing Responsible Innovation: Responsibility as
Inclusive Governance, en prensa.
Foster, C., Heeks, R. y Y. Nugroho (2014), «New models ofinclusive innovation for development», en
Innovation and Development. Taylor and Francis.
Heeks, R., Foster, C. (2013), Conceptualising Inclusive Innovation: Modifying Systems of Innovation
frameworks to Understand Diffusion of New Technology to Low-Income Consumers.
Molina, F. (2005), Arizmendiarrieta (1915-1976). Biografía, Caja Laboral-Euskadiko Kutxa.
– (2008), Fagor eletrodomésticos (1956-2006): Historia de una experiencia cooperativa, España: Fagor
electrodomésticos S. Coop.
Molina, F. y Míguez A. (2008), «The origins of Mondragon: catholic co-operativism and social
movement in a Basque Valley (1941-59)», 284-298.
Owen, R., J. Stilgoe, P. Macnaghten, M. Gorman, E. Fisher y D. Guston (2013), «A Framework for
Responsible Innovation», en Responsible Innovation: Managing the Responsible Emergence of Science
and Innovation in Society, editado por Richard Owen, John Bessant and Maggy Heintz, Chichester,
Wiley, 27-50.
Rodríguez, H., E. Fisher y D. Schuurbiers (2013), «Integrating science and society in European
Framework Programmes: Trends in project-level solicitations», Research Policy, 42 (5), 1126
1137.
Stilgoe, J., R. Owen and P. Macnaghten (2013), «Developing a framework for responsible
innovation». Research Policy, 42 (9), 1568-1580.
Strand, R., Saltelli, A., Giampetro, M. y Rommetveit, K. (2016), «New narratives for innovation», en
Journal ofCleaner Production.
[1] Oficialmente llamada Vitoria-Gasteiz, es la capital del País Vasco. Se encuentra geográficamente
situada en el centro de la provincia de Álava.
INNOVACIÓN INCLUYENTE Y PLURAL.
UNA PROPUESTA PARA LA CONSTITUCIÓN
DE POLÍTICAS PÚBLICAS EN LA SOCIEDAD
DE CONOCIMIENTOS
RESUMEN: La extensa obra de León Olivé radica en la enorme diversidad de problemas que
abordó como: filosofía de las matemáticas, filosofía de la ciencia, racionalidad, realismo, ética,
diversidad cultural, interculturalismo, justicia social, sociedades de conocimientos y pluralismo
epistemológico. Sobra decir, que todas las temáticas las trabajó con originalidad, pasión y rigor.
Otro rasgo distintivo del trabajo intelectual de León Olivé es haber vinculado su obra con
propuestas y soluciones específicas para los problemas sociales que aquejan a nuestro país
(México) y a la sociedad global.
Esta característica se distingue en la obra de León Olivé, quien desde el quehacer filosófico
pone en marcha el instrumental epistémico para dilucidar y brindar soluciones a problemáticas
concretas como la exclusión de grupos sociales en el desarrollo de políticas de ciencia,
tecnología e innovación. Hoy como nunca la obra y pensamiento de León Olivé es fundamental
para abordar los desafíos que implica la paradoja de un contexto social de la actividad
científico-tecnológica sometida, por un lado a una creciente demanda de modelos responsables
e inclusivos de investigación e innovación y por otro, instrumentalizada para resultados
macroeconómicos. Abordar esta paradoja exige un trabajo inter y trans-disciplinario que
presente soluciones concretas a las problemáticas implícitas en la innovación, el conocimiento,
la apropiación social de la ciencia y la tecnología, educación y exclusión de los pueblos
indígenas. Aquí, me centraré principalmente en los argumentos desarrollados por Olivé para
constituir un modelo de sociedad de conocimientos que desde la innovación plural e
intercultural incentive políticas públicas de ciencia, tecnología e innovación.
Palabras clave: León Olivé; ciencia; tecnología; inclusión.
2. MODELO INTERCULTURAL
El modelo interculturalista que desarrolla Olivé sostiene que es posible
fundamentar el doble derecho de los pueblos y de las culturas a la diferencia y a la
participación en la construcción de una sociedad nacional y de la sociedad global, así
como justificar la obligación de los pueblos y las culturas de estar dispuestas a
cambiar, mediante la articulación de un modelo de relaciones culturales basado en
una concepción pluralista del conocimiento y la moral (Olivé 2004, 199).
El rasgo característico de la posición intercultural planteada por Olivé es
justamente la búsqueda de condiciones adecuadas para un mundo donde se preserven
y fortalezcan las identidades culturales y étnicas, pero donde al mismo tiempo se
desarrollen proyectos conjuntos, creativos de forma cooperativa y armoniosa
tomando como referente las prácticas epistémicas revisadas desde el pluralismo
epistémico, propuesta a la que Olivé dedicó especial atención en su obra por
considerarlo uno de los cimientos más rigurosos que sostienen a la Sociedad de
Conocimientos.
5. REFERENCIAS BIBLIOGRÁFICAS
Olivé, L. (2000), El bien, el mal y la razón, México, Paidós-UNAM.
– (2004), Interculturalismo y justicia social, México, UNAM-México.
– (2007), La ciencia y la tecnología en la sociedad del conocimiento. Ética, política y epistemología, México,
Fondo de Cultura Económica.
– (2009), «Por una auténtica interculturalidad basada en el reconocimiento de la pluralidad
epistemológica», en Pluralismo Epistemológico, Luis Tapia Mealla (coordinador), CLACSO, CIDES
Universidad Mayor de San Andrés, La Paz, Bolivia.
– (2010), «Multiculturalidad, interculturalismo y el aprovechamiento social de conocimientos»,
Recerca. Revista de pensamenti anàlisi (10), 45-66.
– (2011), «Apropiación Social de la Ciencia y la Tecnología», en Tania Pérez Bustos y Marcela Lozano
Borda (eds.) Ciencia, Tecnología y Democracia: Reflexiones en torno a la apropiación social del
conocimiento/Memorias del Foro-Taller de Apropiación Social de la Ciencia, la Tecnología y la
Innovación. Medellín, Colciencias, Universidad EAFIT.
– y Luz Lazos Ramírez (Coords.) (2014), Hacia un Modelo Intercultural de Sociedad del Conocimiento en
México, México, UNAM.
AGRADECIMIENTOS
Este trabajo es posible gracias a la Beca Posdoctoral otorgada por la Secretaría de
Ciencia, Tecnología e Innovación de la Ciudad de México (SECITI) 089/2015, para
realizar una estancia en posdoctoral y de investigación en la Universidad del País
Vasco (UPV/EHU), España.
1 Con la idea de que también los conocimientos científicos son tradicionales, por eso agrego el apellido
indígenas rurales.
2 De ser el caso, entonces ¿cómo explicaríamos que hay creencias (valores y normas)compartidas entre
marcos conceptuales diferentes? El problema puede encararse entendiendo que dentro de las prácticas hay
agentes que pueden tener que elegir con diferentes marcos conceptuales, pero unos presupuestos priman
sobre otros dependiendo del contexto o práctica en cuestión.
EL «FUERA DE CAMPO» EN LA INVESTIGACIÓN ACTIVISTA
CON INTERSEXUALIDADES
3. REFERENCIAS BIBLIOGRÁFICAS
Adichie, Chimamanda (2009), «Danger ofa single history», TED Ideas worth spreading.
Alcántara, Eva (2012), Llamado intersexual. Discursos, prácticas y sujetos en México, Tesis doctoral,
México, Universidad Autónoma Metropolitana.
Cabral, Mauro (ed.) (2009), Interdicciones: Escrituras de la intersexualidad en castellano, Córdoba,
Anarrés.
Gregori, Nuria (2015), Encuentros y des-encuentros en torno a las intersexualidades/DSD: Narrativas,
procesos y emergencias, Tesis doctoral, Valencia, Universidad de Valencia.
Kessler, Suzanne (1998), Lessons from the Intersexed, London, Rutgers University Press.
Harding, Sandra (1996), Ciencia y Feminismo, Madrid, Morata.
Haraway, Donna (1995), Ciencia, Cyborgs y Mujeres, Madrid, Cátedra.
Lorde, Audre (1984), Sister/Outsider, Freedom (CA), The Crossing Press.
Tuana, Nancy (2006), «The speculum of ignorance: The women’s health movement and
epistemologies ofignorance», Hypatia 21(3), 1-19.
[1] Este trabajo está integrado en el Proyecto de Investigación «Epistemologías feministas y activismos
en salud: practicas, cuidados y saberes emergentes en contextos biomédicos» (FEM2016-76797-R) financiado
por el MEC y dirigido por Carmen Romero Bachiller. El texto es fruto, a su vez, del trabajo de investigación
conjunto con Nuria Gregori Flor y de las reflexiones sobre el «fuera de campo» con Marisa Ruiz Trejo.
EL REDUCTO MASCULINO DEL QUIRÓFANO: LA SITUACIÓN DE
LAS CIRUJANAS EN LAS PRIMERAS DÉCADAS DEL SIGLO XXI
INTRODUCCIÓN
i bien a mediados del siglo XX la medicina constituía un ámbito con
S
1.
predominancia masculina, en las primeras décadas del siglo XXI el número de
mujeres que deciden iniciar estudios médicos es superior al de hombres, siendo
una de las carreras universitarias que ha mostrado mayores tasas de feminización. Sin
embargo, a medida que se va avanzando en la carrera profesional no solo se observa
una disminución del número de mujeres en los puestos de mayor prestigio y
responsabilidad sino también en determinadas área, especialidades o
subespecialidades. Este es el caso de las especialidades quirúrgicas, donde, ya desde el
periodo de residencia, las mujeres tienen que demostrar su capacidad realizando un
doble esfuerzo; no solo deben adquirir los conocimientos de la especialidad y las
habilidades técnicas propias de la misma, sino que, además, han de superar diversos
obstáculos de género en un mundo dominado por hombres. Por su parte, la literatura
médica está mostrando en las últimas décadas un interés creciente por analizar la
situación de las mujeres en las especialidades quirúrgicas y determinar las causas que
condicionan sus preferencias en el desarrollo profesional, al margen de variables
meramente laborales o económicas e incidiendo en las relativas a la distinción de
género. Sin embargo, estos estudios se centran en etapas concretas de la carrera
quirúrgica. Es decir, ya sea en la etapa universitaria, en la formación de la
especialidad quirúrgica o en el desarrollo de la misma. Por nuestra parte, proponemos
realizar una revisión bibliográfica de los estudios pertenecientes a la literatura
médica, en las primeras décadas de siglo, con el objeto de trazar una panorámica de
las problemáticas y obstáculos de genero a los que se tienen que enfrentar las
cirujanas a lo largo de su carrera profesional.
2. MÉTODOS Y MATERIALES
Se realizó una búsqueda en enero de 2017 en las bases de datos PubMed y en
Google Scholar, con el objeto de encontrar artículos pertenecientes a la bibliografía
médica que tratasen problemáticas de género en las áreas quirúrgicas. Se restringió la
búsqueda a estudios posteriores al año 2000 y se acotó la misma combinando términos
clave tales como «women», «gender», «surgeons», «surgery», «academic surgery»,
«sexism» o «female». Se desecharon las publicaciones duplicadas, así como las que no
trataban explícitamente o de forma sustancial cuestiones relacionadas con las
problemáticas de género.
3. RESULTADOS
3.1. LA ELECCIÓN DE UNA ESPECIALIDAD QUIRÚRGICA
Tras el periodo universitario se produce una brecha relativa a la desigual
proporción de hombres y mujeres que acceden a una residencia quirúrgica. En la
literatura médica (Burgos y Josephson 2014; Novielli, Hojat, Park, Gonnella, y Veloski
2001) se han identificado tres barreras ligadas a diferencias de género que las
estudiantes deben superar para escoger una especialidad quirúrgica,
correspondientes al menor interés inicial hacia tales áreas, una tasa inferior de
persistencia o presencia de dicho interés tras las rotaciones en quirófano, y una
mayor disuasión respecto a la realización de una residencia quirúrgica después de las
rotaciones. Las causas presentes en el primer obstáculo han sido poco estudiadas,
sugiriéndose la influencia de estereotipos que hacen tales especialidades poco
atractivas a las mujeres (Fysh, Thomas y Ellis 2007). La segunda barrera se ha
explicado en base a la menor presencia de modelos que sirvan de referente a las
estudiantes, optando por especialidades donde existen mayor número de trayectorias
paradigmáticas de mujeres que han logrado éxito profesional (Hill, y Vaughan 2013;
Walsh 2002; Mayer, Pérez y Ho 2001). También se ha destacado el menor número de
mentores efectivos que fomenten vocaciones quirúrgicas entre las universitarias
(Rombeau, Goldberg y Loveland-Jones 2010; Healy, Cantillon, Malone y Kerin 2012;
Entezami, Franzblau y Chung 2012). Finalmente, experiencias percibidas durante las
rotaciones disuaden a las mujeres en la elección de una especialidad quirúrgica
(Gariulo, Hyman, y Hebert, 2006), tales como episodios de discriminación y
hostigamiento sexual (Stratton, McLaughlin, Witte, Fosson, y Nora, 2005; Longo, y
Straehley, 2008; Bruce, Battista, Plankey, Johnson, y Marshall, 2015), la percepción de
estereotipos masculinos en la personalidad y cultura quirúrgica (Hill, Bowman,
Stalmeijer, Solomon y Dornan 2014), y la consideración de las especialidades
quirúrgicas como un «old boy’s club» (Richardson y Redfern 2000; Richarson 2000;
Peters y Ryan 2014).
4. CONCLUSIÓN
Las mujeres que deciden profesionalizarse en un área quirúrgica tienen que
superar diversos obstáculos y dificultades de género desde la etapa de formación
universitaria, constituyendo la mayoría de las especialidades quirúrgicas ámbitos
predominantemente masculinos en las primeras décadas del siglo XXI. En nuestro
estudio hemos encontrado limitaciones relativas a la nacionalidad de los artículos,
implicando diferencias significativas en los programas formativos y sistemas
sanitarios, así como algunos datos controvertidos. Sin embargo, se pueden apreciar
resultados consistentes que ayudan a trazar una panorámica general de un fenómeno
con presencia global, la subrepresentación de las mujeres en la mayoría de los campos
quirúrgicos.
5. REFERENCIAS BIBLIOGRÁFICAS
Azcoitia Moralia, Fernando., Caballero García, Ana G., Carmen Guerrero, Ana C., Azcoitia Rodríguez,
C. (2013), «Evaluación de aptitudes por sexo para el aprendizaje de las técnicas quirúrgicas:
¿Hombres o mujeres?», Cirujano general 35(1), 41-48.
Bruce, Adrienne N., Battista, Alexis., Plankey, Michael W., Johnson, Lynt B., Marshall, M. Blair
(2015), «Perceptions of gender-based discrimitation during surgical training and practice»
Medical education online, 20.
Buyske, Jo (2005), «Women in surgery: the same, yet different», Archives ofsurgery 140(3), 241-244.
Burgos, Carmen Mesas., Josephson, Anna (2014), «Gender differences in the learning and teaching
of surgery: a literature review», International journal ofmedical education (5), 110-124.
Castañeda Abascal, Ileana., Solís Solís, Susana (2002), «Desigualdades atribuibles al género entre
cirujanos(as): Ciudad de La Habana», Revista Cubana de Salud Pública 28(2).
Cochran, Amalia., Hauschild, Tricia., Elder, William B., Neumayer, Leigh A., Brasel, Karen J.,
Crandall, Marie L. (2013), «Perceived gender-based barriers to careers in academic surgery»,
Amarican journal ofsurgery 206(2), 263-268.
Cortés Flores, Ana O., Fuentes Orozco, Clotilde., López Ramírez, María K. L., Velázquez Ramírez,
Gabriela A., Farías Llamas, Oscar A., Olivares Becerra, Juan J., González Ojeda, Alejandro (2005),
«Medicina académica y género. La mujer en especialidades quirúrgicas» Gaceta Médica de México
141(4), 341-344.
Entezami, Pouya., Franzblau, Lauren E., Chung, Kevin C. (2012), «Mentorship in surgical training:
asystematic review», Hand 7(1), 30-36.
Fysh, Thomas., Thomas, Geraint., Ellis, Harold. (2007), «Who wants to be a surgeon? A study of300
first year medical students», BMC Medical Education 7.
Gargiulo, Debra A., Hyman, Neil Hyman., Hebert, James C. (2006), «Women in Surgery: do we really
understand the deterrents?», Archives ofsurgery 141(4), 405-407.
Grandis, Jennifer R., Gooding, William E., Zamboni, Beth A., Wagener, Marilyn M., Drenning,
Stephanie D., Miller, Lori, Doyle, Karen J., Mackinnon, Susan E., Wagner, Robin L. (2004), «The
gender gap in a surgical subspecialty: analysis of career and lifestyle factors», Archives of
otolaryngology-head & neck surgery 130(6), 695-702.
Healy, Nuala A., Cantillon, Peter Malone, Carmel., Kerin, Michael J. (2012), «Role models and
mentors in surgery», American journal ofsurgery 204(2), 256-261.
Hill, Elspeth J., Bowman, Katherine A., Stalmeijer, Renee E., Solomon, Yvette., Dornan, Tim (2014),
«Can i cut it? Medical students’perceptions of surgeons and surgical careers», American journal
ofsurgery 208(5), 860-867.
Hill, Elspeth, Vaughan, Suzanne (2013), «The only girl in the room: how paradigmatic trajectories
deter female students from surgical carrers», Medical education 47(6), 547-556.
Kelz, Rachel R., Mullen, James L., Kaiser, Larry R., Pray, Lori A., Shea, Gregory P., Debrin, Jeff A.,
Wirtalla, Chris J., Morris, Jon B. (2010), «Prevention of surgical resident attrtion by a novel
selection strategy», Annals ofsurgery 252(3), 537-541.
Longo, Patrizia, Straehley, Clifford J. (2008), «Whack! I’ve hit the glass ceiling! Women’s efforts to
gain status in surgery», Gender medicine 5(1), 88-100.
Mayer, Kathrin L., Ho, Hung S., Goodnight James E. (2001), «Childbearing and child care in surgery»
Archives ofsurgery 136(6), 649-655.
Mayer, Kathrin L., Victor Perez, Richard, Ho, Hung S. (2001), «Factors affecting choice of surgical
residency training program», The Journal ofsurgical research 98(2), 71-75.
McLemore, Elisabeth C., Ramamoorthy, Sonia, Peterson, Ccarrie Y., Bass, Barbara L. (2012), «Women
in surgery: bright, sharp, brave, and temperate», The Permanente journal 16(3), 54-59.
Novielli, Karen, Hojat, Mohammadreza, Park, Pauline K., Gonnella, Joseph S., Veloski, Jon J. (2001),
«Change of interest in surgery during medical school: a comparison of men and women»
Academic medicine: journal of the Association of American Medical Colleges 76(10),58-61.
Park, Jason, Minor, Sam, Taylor, Rebecca A., Vikis, Elena, Poenaru, Dan (2005), «Why are women
deterred from general surgery training?», American journal of surgery 190(1), 141-146.
Peters, Kim, Ryan, Michelle (2014), «Machismo in surgery is harming the specialty», Student BMJ 22,
26-27.
Richardson, H. C., Redfern, N. (2000), «Why do women reject surgical careers?», Annals of the Royal
College ofSurgeons of England 82(9), 290-293.
Rombeau, John L., Goldberg, Amy, Loveland-Jones, Catherine (2010), Surgical Mentoring. Building
Tomorrow’s Leaders, New York, Springer.
Schroen, Anneke T., Brownstein, Michelle R., Sheldon, George F. (2004), «Women in academic
general surgery» Academic medicine: journal of the Association of American Medical Colleges 79(4),
310-318.
Sexton, Kevin W., Hocking, Kyle M., Wise, Eric., Osgood, Michael J., Cheung-Flynn, Joyce,
Komalavilas, Padmini, Campbell, Karen E., Dattilo, Jeffrey B., Brophy, Colleen M. (2012),
«Women in academic surgery: the pipeline is busted», Journal ofsurgical education 69(1), 84-90.
Stratton, Terry D., McLaughlin, Margaret A., Witte, Florence M., Fosson, Sue E., Nora, Lois M. (2005),
«Does students” exposure to gender discrimination and sexual harassment in medical school
affect specialty choice and residency programme selection?», Academic medicine: journal of the
Association of American Medical Colleges 80(4), 400-408.
Troppmann, Kathrin M., Palis, Bryan E., Goodnight, James E., Ho, Hung S., Troppmann, Christoph
(2009), «Women surgeons in the new millennium», Archives ofSurgery 144(7), 635-142.
Viola, Kate V., Bucholz, Emily, Yeo, Heather, Pipper, Crystal L., Bell, Richard H., Sosa, Julie A. (2010),
«Impact of family and gender on career goals: results of a national survey of 4586 surgery
residents», Archives ofsurgery 145(5), 418-424.
Walsh, Danielle S. (2002), «Perspectives of a woman resident», Surgery 131(6), 666-669.
Zhuge, Ying, Kaufman, Joyce, Simeone, Diane M., Chen, Herbert., Velazquez, Omaida C. (2011), «Is
there stilla glass ceiling for women in academic surgery?» Annals of surgery 253(4), 637-643.
LA PARTICIPACIÓN CIUDADANA COMO EJE DE LAS
ACTIVIDADES CIENTÍFICO-TECNOLÓGICAS
1. INTRODUCCIÓN
E l concepto de cultura científica ha sido, por lo general, tomado de forma
modelo del
desacertada. Por supuesto, esto hace mención principalmente al ya manido
déficit cognitivo. Las críticas hacia el mismo son muy numerosas y
parece que se ha superado teóricamente, lo cual no implica que se siga inmiscuyendo,
por ejemplo, en las políticas científicas y en los estudios de percepción social de la
ciencia. No resulta oportuno hacer aquí un repaso de las numerosas críticas que ha
recibido este modelo, lo cual no impide señalar algún aspecto esencial.
Lo primero que se puede cuestionar del modelo del déficit cognitivo son las
intenciones sobre las que se funda. No parece que su finalidad sea la consecución de
una ciencia y una cultura más participativas, sino que más bien su meta es lograr el
respaldo ciudadano como legitimación de las políticas científico-tecnológicas y de las
grandes inversiones en dichos ámbitos. La reducción de la noción de cultura científica
a la de una serie de conocimientos básicos y a unas supuestas actitudes e intereses que
llevarían aparejados tales conocimientos conlleva también una visión pasiva de la
ciudadanía.
Las réplicas a este modelo son abundantes, pero sigue resultando imprescindible
mostrar la necesidad de un cambio de paradigma que también vaya más allá de los
modelos dialógicos, que no suponen una verdadera superación del clásico modelo.
Esto no significa que haya que obviar esa asimetría cognitiva entre ciudadanos y
expertos respecto al ámbito científico, sino, al contrario, como explica Carina Cortassa
(2010), dicho desnivel es algo que debe asumirse a la hora de establecer relaciones
entre los expertos y el resto de ciudadanos, al igual que parece esencial asimilar que el
saber local de la ciudadanía puede ser valioso, y que existe una causa más allá de la
ignorancia de sus motivaciones y sentimientos acerca de la ciencia y la tecnología
(González, López Cerezo y Luján 1996).
Ahora bien, ¿por qué se debe luchar por una mayor inclusión ciudadana en el
ámbito científico-tecnológico? La razón no es que la participación ciudadana pueda
resolver las grandes problemáticas que surgen de la práctica y resultados científico
tecnológicos, ni siquiera las más ligadas al bienestar social. El fundamento radica en
que las limitaciones individuales y, por tanto, también las de los expertos, afloran aún
más cuando se enfrentan a la complejidad de los sistemas sociales actuales, así como
también de las propias actividades del ámbito científico y tecnológico. De esta forma,
una cultura democrática resulta ser el entorno propicio para solventar los
condicionamientos y barreras individuales o propios de un determinado sector, y
delimitar la influencia de los diferentes poderes, así como también las cláusulas de
apropiabilidad de los diferentes resultados científico-tecnológicos. En una época en la
que la especialización y la interrelación entre los diferentes campos son signos
distintivos de la ciencia: ¿de verdad están capacitados los expertos para tomar
decisiones por todos? ¿Puede tener una serie de individuos una visión completa de las
diferentes problemáticas sin sobrepasar su campo de especialidad? Como explica
Barry Barnes (1987, 96), ser experto en una determinada área científica no otorga
autoridad en decisiones sobre aspectos sociales, morales o políticos. Esto supone, por
tanto, una llamada a no convertir cuestiones de carácter sociopolítico y moral en
problemas técnicos o de gestión administrativa.
La pregunta que surge entonces es cómo dinamizar esta inclusión de la ciudadanía
en ámbitos en los que generalmente ha estado condenada al mutismo. De acuerdo con
Miguel Ángel Quintanilla (2002, 648), «la extensión de la democracia siempre ha sido
acompañada por una extensión y transformación de la cultura». Esto quiere decir que
los mecanismos institucionales de participación, aunque necesarios, son insuficientes
si no hay una metamorfosis en la cultura científico-tecnológica y democrática de la
sociedad. La gama de mecanismos de debate, deliberación y votación es amplia, pero
la utilización de ninguno de ellos garantiza la participación democrática en sentido
estricto, como se intentará mostrar con el caso de Internet como una de esas
herramientas. En conclusión, la transformación fundamental ha de ser cultural.
2. LA MUERTE DE LA DELIBERACIÓN
Internet es uno de los desarrollos tecnológicos que más fuerte ha penetrado en la
vida humana en todas sus dimensiones. Son muchas las voces que se han alzado para
reivindicar el papel que puede ejercer Internet a la hora de lograr una mayor
democratización en ámbitos donde las difíciles circunstancias espaciales y temporales
eran una lacra para la participación directa. Pero, de nuevo aflora la cuestión: ¿son
suficiente los medios, instrumentos o mecanismos de participación para una
democracia más participativa y directa? Y en vista de esto, ¿cuáles son las limitaciones
de Internet como herramienta democratizadora? ¿Qué papel puede jugar la ciencia en
este ámbito? En los siguientes párrafos se intentará responder a estas preguntas.
Fueron varios los que se encomendaron la labor de frenar las «idílicas»
expectativas puestas sobre las posibilidades democratizadoras que podían traer
consigo las TICs. Algunos de ellos señalaron de forma contundente y detallada dos
impedimentos que frenan cualquier meta democrática que la Red pueda estimular. El
primero de ellos sería el adoctrinamiento, esto es, la falta de creatividad y disensión y
la pérdida de autonomía. Internet, argumentan estos, en lugar de establecer las bases
para una fructífera deliberación, impulsa el amaestramiento irracional. El segundo
obstáculo sería el aislamiento sectario al que se ven sometidos la mayoría de los
internautas.
Antes de explicar más detalladamente a qué se debe tal pesimismo, es de rigor
señalar que el principal germen de tales limitaciones proviene de la dinámica
empresarial –y no democrática o participativa– propia de la Red. Esto implica que se
introduzcan determinados factores que van en detrimento del desarrollo de espacios
que fomenten una cultura democrática.
Más allá de esto último, uno de los principales elementos que generan el declive de
la deliberación son los llamados filtros. Ante la apariencia de totalidad informativa, se
oculta un sesgo de difícil escapatoria. Dicho con otras palabras, los filtros ejercerán
una influencia tal que dependiendo de determinados factores –como pueden ser
búsquedas personales anteriores, gustos de usuarios que buscaron lo mismo o el
idioma– se ofrecerán unos resultados de búsqueda u otros. Esto, que a priori parece
una ventaja que facilita la sumersión en el océano de las webs, se convierte en una
clara pérdida de autonomía, ya que se confía a un agente externo la decisión acerca de
lo que nos puede resultar interesante o relevante.
La consecuencia parece clara. Como expresa Robert D. Putnam (2002), en un
tiempo ajeno a lo virtual el inevitable encontronazo con los demás era ineludible y,
por tanto, también el contacto directo con la diversidad. En cambio, explica Putnam,
donde antes encontrábamos el espacio aprisionador propio de la circunstancia
personal, en la actualidad se nos abre un mundo sin fronteras informativas. La cultura
propia de una comunidad ya no constriñe y aísla de la misma forma que lo hacía
antes. Sin embargo, esto no supone, para el sociólogo y politólogo estadounidense,
una apertura a un mayor intercambio de perspectivas. La nueva era será testigo de la
creación de comunidades en torno a intereses y no basadas en la demografía.
Entre los autores críticos destaca también Cass Sunstein (2003) por su profundidad
analítica y su claridad expositiva. Este afirma que en Internet se muestran los rasgos
precedentes de una dinámica que se basa en el proselitismo, el destierro de lo
alternativo y en una automatización paternalista, que son contrarios al debate, a la
deliberación, al intercambio, al aprendizaje y a la independencia o autarquía. Ante la
abrumadora «sobrecarga» de fuentes de información, la filtración parece inevitable.
Ahora bien, esto no es en sí mismo un problema. Lo preocupante, para el autor, es la
tendencia que se muestra en los usuarios de acudir a aquellas fuentes y sitios webs
que consolidan su «visión del mundo». Aquel hálito diabólico y conspirador de los
filtros parece desvanecerse ante la placentera situación proporcionada por la
comodidad del refuerzo constante. El usuario usa su propio tamiz, pero, no contento
con eso, toma con los brazos abiertos la ayuda que los filtros y buscadores le
proporcionan hasta llegar a la serenidad de la ilusoria, aunque tenaz, permanencia en
la postura conocida. El desenlace parece obvio:
Los individuos con nociones tan opuestas tendrán dificultades para encontrar un terreno
común o para avanzar en cuestiones de fondo. Tengamos en cuenta que estas dificultades
aumentarán si las personas desconocen la opinión contraria, evitan el diálogo e ignoran de
qué manera tratar las preocupaciones contrarias de sus conciudadanos (Sunstein 2003, 66).
Las empresas y el mercado que operan por detrás de los engranajes de la Red
apuestan por ofrecer un servicio tan personalizado, esto es, tan ligado a la imagen
individual construida a partir de criterios basados en datos, preferencias y búsquedas,
que anulan cualquier tipo de investigación profunda en la Red, cualquier
descubrimiento de lo ajeno. Difícil es escapar del perímetro conformado por uno
mismo. Un mundo en el que cada vez juega un papel más importante la
intersubjetividad y los acuerdos se enfrenta a la contradicción de unos ciudadanos
cada vez más ajenos a la contradicción, que se encadenan a un nuevo solipsismo en el
que salir de uno mismo ni siquiera es una opción. Un mundo personalizado e
individualizado es lo que nos ofrece la Red y no un mundo con el resto y la diversidad.
Esto no significa que en Internet no existan las relaciones interpersonales.
Precisamente su gran logro es la comunicación sin limitaciones espaciales. Ahora
bien, ¿cómo son algunas de estas relaciones? ¿En qué se basan? ¿Ofrecen nuevos
territorios de deliberación política? De acuerdo con Sunstein, en la Red se produce un
hecho que él denomina «polarización de grupo». En los grupos conformados de todas
las diversas maneras que la Red nos ofrece se tiende a extremar las posiciones con las
que se partía. El fundamento principal es compartir una identidad de grupo, de tal
forma que el continuo refuerzo y «toma y daca» entre los componentes del grupo –
considerados como agentes valiosos en virtud de una causa común– polariza las
posturas (Sunstein 2003). El continuo refuerzo de las opiniones lleva, a su vez, a un
desprecio total de los demás posicionamientos y argumentos.
Por otro lado, los «me gusta» como calderilla que apoya el propio pensar es la idea
que hay también bajo lo que Sunstein denomina «cibercascadas», que hace referencia
al hecho de la veloz propagación de información –aunque sea falsa– entre
determinados grupos socio-virtuales. Estas informaciones pueden contradecir la
ciencia, los argumentos políticos o incluso verdades asentadas como la esfericidad de la
Tierra. Las cascadas no dependen de la contrastabilidad o la verosimilitud, sino más
bien de si refuerza las posturas particulares de quien lo comparte.
4. CONCLUSIONES
En las líneas precedentes se señalaba la vitalidad de la construcción de una cultura científica y
participativa. También se apuntaba la imperiosa necesidad de respetar la pretendida autonomía,
cada vez más lejana, de las actividades y procesos propios de la ciencia. En vista de esto,
¿cuál sería el papel participativo de la ciudadanía? Pues bien, lo primero que se ha tener en
cuenta es que tanto el concepto de cultura científica como el de participación deben ser ampliados.
La cultura científica no es algo que surja únicamente a partir de la actividad y producción
científicas, sino que más bien son dos dimensiones que están en continua retroalimentación. La
cultura científica incumbe de lleno a la ciudadanía, pero también a la ciencia, porque no sólo la
ciencia altera la cultura científica, sino que esta última, que puede (y debe) ser moldeada por toda
la sociedad, ha de tener a su vez implicaciones sobre la actividad científica. La institución científica
se ha reformado al son de las medidas adoptadas social y políticamente –fruto de un cambio
cultural– para el respeto y protección de los animales, para una mayor inclusión de la mujer en el
ámbito académico, para las preocupaciones éticas acerca de la experimentación, etc.
Es necesario, por tanto, entender la necesidad de independencia de los mecanismos internos de
la ciencia, como su sistema de publicación y de reconocimiento científico, pero a su vez, también, el
vínculo que hay entre la ciencia, la tecnología y la sociedad y su indescifrable estructura de
influencias. El primero de estos requerimientos está en decadencia con la introducción de factores
externos, casi siempre de corte economicista tras la industrialización de la ciencia académica, la
mutación de sus valores (Ziman 2000, 2003) y mercantilización de sus resultados. Es, por ello, que la
participación ciudadana no ha de añadir más dificultades a los ya distorsionados mecanismos
internos de la ciencia, sino que, al contrario, ha de patentar una cultura que, en primer lugar,
reivindique el carácter abierto y público de la ciencia, reformule los modelos de apropiabilidad de
los resultados científicos y tecnológicos y rechace los particularismos, y que, en segundo lugar,
fomente los cambios necesarios para que la actividad científica y tecnológica esté a la altura de las
sociedades en las que se da.
En definitiva, vemos que el cambio fundamental ha de ser cultural, y que la participación en
ciencia no ha de basarse en un banal voto bajo requerimiento de la superación de un «déficit
cognitivo», sino que la participación ha de ser en –y no de– la cultura científica, elemento de unión
entre la institución científica y el resto de entornos. Por ello, la participación científica debe ser un
eje, pero no «el eje», de las actividades científico-tecnológicas. La participación y la cultura
científico-tecnológica son, respectivamente, eje y puente.
5. BIBLIOGRAFÍA
Barnes, Barry (1987), Sobre ciencia, Barcelona, Labor.
Cortassa, Carina G. (2010), «Del déficit del diálogo, ¿y después? Una reconstrucción crítica de los
estudios de comprensión pública de la ciencia», Revista CTS, 5 (14), 117-124.
Cortina, Adela (2007), Ética aplicada y democracia radical, Madrid, Tecnos.
Crowston, Kevin y Wiggins, Andrea (2012), «Goals and Tasks: Two Typologies of Citizen Science
Projects», 45th Hawaii International Conference on System Sciences, 3426-3434.
Feldman, Patricio J., Finquelievich, Susana y Fischnaller, Celina (2013), «E-Ciencia Ciudadana: la
«prosumición» de la ciencia en la sociedad del conocimiento», 11vo Simposio sobre la Sociedad de
la Información, 95-118.
Finquelievich, Susana y Fischnaller, Celina (2014), «Ciencia ciudadana en la Sociedad de la
Información: nuevas tendencias a nivel mundial», Revista CTS, 9 (27), 11-31.
González, Marta I., López Cerezo, José A., Luján, José L. (1996), Ciencia, Tecnología y Sociedad: una
introducción al estudio social de la Ciencia y la Tecnología, Madrid, Tecnos.
López Cerezo, José A. (2005), «participación ciudadana y cultura científica», Arbor. 181 (715), 351
362.
Putnam, Robert D. (2002), Sólo en la bolera: colapso y resurgimiento de la comunidad norteamericana,
Barcelona, Galaxia Gutemberg, Círculo de lectores.
Sunstein, Cass R. (2003), República.com. Internet, democracia y libertad, Barcelona, Paidós.
Ziman, John (2000), Real Science: What it is, and what it means, Cambridge, Cambridge University
Press.
Ziman, John (2003), ¿Qué es la ciencia?, Madrid, Cambridge University Press.
EL OCASO DE LA ERA CIENTÍFICA
RESUMEN: La historia nos muestra muchos amaneceres y muchos ocasos en las diferentes
facetas de los seres humanos. Mirando al pasado podemos poner fecha y entender las razones
para el nacimiento y auge de las ciencias. Su declive es más difícil de pronosticar, aunque hay
ya razones para pensar que no está muy lejos.
La investigación en ciencias puras está en decadencia. Tras siglos de grandes logros, el
agotamiento de nuevas formas y la fatiga han alcanzado a nuestra cultura en todas sus
manifestaciones incluyendo a las ciencias puras. Nuestra sociedad está saturada de
conocimientos que no le ofrecen sentido para su existencia. Se pierden los ideales de búsqueda
de grandes verdades y se tiende cada vez más a una anodina industria especializada aportando
muchos datos pero carente de nuevas ideas. Durante el último medio siglo, la ciencia ha
avanzado más y más en detalles técnicos, más y más en su inversión en experimentos
costosísimos, en la cantidad de información que genera, pero ha ido hacia atrás en cuanto a su
motivación. La investigación en ciencias no-aplicadas camina entrelazada con las fuerzas
económicas como un tentáculo más de sus modos de producción.
Palabras clave: Historia de la ciencia; filosofía de la ciencia; sociología de la ciencia;
decandencia; Spengler.
1. INTRODUCCIÓN
«Sí, sí, lo veo; una enorme actividad social, una poderosa civilización, mucha ciencia, mucho
arte, mucha industria, mucha moral, y luego, cuando hayamos llenado el mundo de
maravillas industriales, de grandes fábricas, de caminos, de museos, de bibliotecas, caeremos
agotados al pie de todo esto, y quedará ¿para quién? ¿Se hizo el hombre para la ciencia o se
hizo la ciencia para el hombre?» (Unamuno 1913)
Esta cita refleja con bastante exactitud el tema principal del que se hablará a
continuación, breve descripción de los contenidos del libro de título en inglés The
Twilight of the Scientific Age (El crepúsculo de la era científica, literalmente, aunque por su
sentido mejor traducirlo como El ocaso de la era científica) (López Corredoira 2013). La
idea es sencilla: nuestra era de la ciencia está en decadencia porque nuestra sociedad
se está saturando con conocimientos que no ofrecen a la gente sentido alguno a sus
vidas.
Las sociedades como un todo son sensibles a la motivación. De hecho, no todas las
sociedades desarrollan ciencia. Y, como se sabe, incluso las civilizaciones que
desarrollaron esa visión del mundo y la metodología científica de observar fenómenos
pueden entrar en decadencia al respecto y perder su interés por continuar la
actividad científica. Eso sucedió en la Edad Media en los países cristianos occidentales.
¿Fue ésta una época oscura? Posiblemente, desde algunos puntos de vista
intelectuales, pero no supuso el fin de la civilización. Fue una era con gran cantidad de
recursos para crear cosas magníficas, tales como las catedrales. Hubo medios para
llevar a cabo grandes avances en muchas áreas. La cristiandad no estaba
subdesarrollada intelectualmente con respecto a los países musulmanes, y el
conocimiento básico de la ciencia griega clásica también estaba presente; sin embargo,
quitando unas pocas excepciones, no hubo un gran desarrollo de las ciencias en la
Europa cristiana durante cerca de diez siglos en la Edad Media. ¿Por qué? Quizá
porque sus gentes no estaban lo suficientemente motivadas para pensar sobre la
Naturaleza.
En nuestra era, las condiciones son muy diferentes a las de la Edad Media. Sin
embargo, en un futuro no muy lejano, las sociedades envueltas en diversos problemas
de supervivencia (superpoblación, falta de fuentes de energía, crisis económicas,
calentamiento global y otros desastres ecológicos, guerras, plagas, etc.) pueden
empezar a ver la investigación como una actividad que no es lo suficientemente
provechosa, y pueden abandonar la pura investigación científica. Al comienzo, se
confiará en los científicos para resolver los problemas, como sucede en la actualidad,
pero la sociedad se dará cuenta de que la investigación en ciencia puras no puede
satisfacer todas su expectativas, y que los retornos de las inversiones hipermillonarias
son cada vez menores. Las naciones reducirán cada vez más los titánicos esfuerzos
económicos necesarios para producir algunos avances insignificantes en la ciencia,
hasta que se llegue a un punto en que los científicos proclamen que no pueden
continuar su actividad con presupuestos tan pequeños; consecuentemente, los centros
de investigación comenzarán a cerrar uno tras otro. ¿Es ésta la profecía que quiero
desarrollar? No, no quiero hablar sobre profecías. El futuro es incierto y lo que he
descrito es sólo una posibilidad entre otras. Deseo hablar sobre nuestra sociedad
actual, y las tendencias que se pueden observar actualmente.
Hoy, la ciencia y algunos de sus representantes ocupan un status importante en
nuestra sociedad, y cantidades desorbitadas de dinero los soportan. Se publican
muchísimos artículos, se citan frecuentemente unos autores a otros, hay muchos
congresos, más que nunca, la comunicación a través de los medios de comunicación
sobre los descubrimientos realizados muestra un gran interés por la ciencia del
público no profesional. Una visión superficial puede llevarnos a creer que vivimos en
una época dorada de la ciencia, pero lo cierto es que los resultados actuales de la
ciencia son mediocres en su mayor parte, de poca importancia, o simples aplicaciones
técnicas de ideas concebidas en el pasado. La ciencia vive hoy de rentas.
La historia nos muestra muchos amaneceres y muchos ocasos en las diferentes
facetas de los seres humanos. Mirando al pasado podemos poner fecha y entender las
razones para el nacimiento de la ciencia. No sabemos cuándo ocurrirá su ocaso, pero
las razones para ello están en el aire: después de un verano muy caliente siempre llega
la estación de la caída de las hojas.
4. LA DECADENCIA DE LA CIENCIA
Nuestra sociedad se ahoga entre inmensas cantidades de conocimientos, la
mayoría de ellos sobre cosas de poca importancia para nuestra visión del cosmos, o sin
producir avances en los fundamentos básicos de las ciencias puras, sólo aplicaciones
técnicas o detalles secundarios. En los pocos campos donde surgen algunos aspectos
importantes de cuestiones sin resolver, grupos poderosos controlan los flujos de
información y empujan hacia verdades consensuadas en vez de haber discusiones
objetivas dentro de una metodología científica, lo que da pocas garantías de que
estemos obteniendo nuevas verdades sólidas sobre la naturaleza. Además, la
creatividad individual está condenada a desaparecer en favor de las grandes
corporaciones de administradores y políticos de la ciencia especializados en buscar
formas de obtener fondos del Estado en megaproyectos con costes crecientes y
retornos decrecientes. Podemos usar un adjetivo para describir el estado de la ciencia
en el presente y el futuro cercano: decadente.
El hecho de que la ciencia se haya convertido en una gran empresa, consumiendo
enormes cantidades de fondos financiadas por los Estados, la ha hecho más vulnerable
de ser politizada y sujeta a los valores sociales de las masas en más que a los valores de
una élite pensante. No sólo están los científicos al servicio de programas mediocres de
investigación concebidos por científicos mediocres que dedican más tiempo a la
burocracia y a conseguir fondos que a pensar sobre la ciencia, sino que hemos incluso
alcanzado la increíble situación de que se le pide al más común de los mortales sin
mucha idea sobre ciencia que proponga temas para la futura dirección de la ciencia. El
argumento es que los ciudadanos pagan sus impuestos y los científicos usan parte de
tales para hacer su ciencia, con lo cual tienen derecho a elegir en qué proyectos se
debe invertir dinero.
El problema para las instituciones científicas vendrá probablemente cuando su
influencia sobre la sociedad se vea reducida y cuando los recursos económicos que la
ciencia consume empiecen a disminuir o incluso a dejar de crecer. Actualmente, los
países más ricos invierten cerca de un 3% de su PIB en investigación y desarrollo.
Posiblemente esté ya próximo al límite asintótico en términos de la cantidad de
dinero que una sociedad puede costear, por lo que tal crisis podría no estar muy lejos.
Una crisis en el negocio de la ciencia, una crisis sin retorno, puede suceder, y ello
dará lugar a una era oscura en el avance de conocimiento científico. Esto no ha de
suceder muy rápidamente sino en un lento proceso, posiblemente extendido a lo largo
de varias generaciones, y esta decadencia no sólo afectará a la ciencia sino que el
hundimiento de la ciencia irá de la mano con el hundimiento de muchos otros
aspectos de nuestra civilización. En realidad, los distintos aspectos de una cultura se
alimentan mutuamente. La ciencia es una de las características más significativas de la
civilización occidental, y de su modo de pensamiento. Por consiguiente, el fin de la
ciencia significará el fin de la cultura europea moderna, el ocaso de un era iniciada en
Europa alrededor del s. XV y que se extiende hoy en día a todo el planeta: la era
científica. Esto no tiene visos de suceder muy rápidamente sino en un lento proceso,
posiblemente extendido a lo largo de varias generaciones, ligado al hundimiento de
muchos otros aspectos de nuestra civilización. En realidad, los distintos aspectos de
una cultura se alimentan mutuamente. La ciencia es una de las características más
significativas de la civilización occidental y de su modo de pensamiento. Por
consiguiente, el fin de la ciencia significaría el fin de la cultura europea moderna, en
la línea augurada por el pensador Oswald Spengler (1923) en su obra La decadencia de
occidente.
5. CONCLUSIONES
La ciencia se está convirtiendo en un sinsentido para la humanidad. Durante el
último siglo, la ciencia ha avanzado más y más en detalles técnicos, más y más en su
inversión en experimentos carísimos, en la cantidad de información que genera, pero
ha ido hacia atrás en cuanto a su motivación. La fuerza que empujó a la humanidad a
caminar hacia el conocimiento, la ilustración y la razón empujan ahora muy
débilmente. La ciencia continúa funcionando por su inercia pero está sujeta a la
fricción debida a su erosión. Nuestra ciencia está cansada, agotada. Camina
entrelazada con las fuerzas económicas en vez de con los sueños humanos. Ha perdido
su atractivo prístino y sólo quedan en ella simples operaciones técnicas.
Dicho en términos pesqueros: esquilmados los mares de las verdades fáciles, ya no
se puede pescar con caña en ellos y hay que acceder a embarcaciones con costosos
aparatos de pesca para poder sacar algo: mayores aceleradores de partículas, mayores
telescopios, etc. Pero cuando la investigación científica alcance el límite donde no
puede seguir creciendo a base de mayores inversiones económicas en tecnología, la
crisis será inevitable. Nuestra ciencia se ha convertido en un animal sin alma o, mejor
dicho, una colonia de animales, un grupo de organismos que devoran los esfuerzos
humanos y no ofrecen más que un medrar por el medrar mismo. Las organizaciones
científicas se comportan como una colonia de bacterias que se reproducen mientras
haya suficiente alimento/dinero. Cuanto más se los alimenta más crecen: más
estudiantes de doctorado, más investigadores postdoctorales, investigadores de
plantilla, superordenadores, telescopios, aceleradores de partículas, artículos, etc. Y,
si se cierra el grifo del dinero, los investigadores dedicados a la ciencia y sus
subproductos se reducen proporcionalmente. El sentido de esta industria es el de la
vida primitiva: una mera lucha por la supervivencia y por la difusión de los genes
intelectuales.
6. REFERENCIAS BIBLIOGRÁFICAS
Armstrong, J. Scott (1997), «Peer review for journals: evidence on quality control, fairness, and
innovation», Science and Engineering Ethics, 63-84.
Gascoigne, Robert M. (1992), «The Historical Demography of the Scientific Community, 1450-1900»,
Social Studies of Science (22(3)), 545-573.
Gillies, Donald A. (2008), How Should Research be Organised?, London, College Publications.
López Corredoira, Martín (2013), The Twilight of the Scientific Age, Boca Raton (FL, EE.UU.),
BrownWalker Press.
Luminet, Jean-Pierre (2008), «Is Science Nearing Its Limits? Summarizing Dialogue»,
http://arxiv.org/abs/0804.1504.
Merton, Robert K. (1968), «The Matthew Effectin Science», Science (159(3810)), 56-63.
Spengler, Oswald (1923), Der Untergang des Abendlandes, 2.ª edición. Traducción al español en: (1998),
La decadencia de occidente, Madrid, Espasa Calpe.
Thurner, S, y Hanel, R. (2011), «Peer-review in a world with rational scientists: Toward selection of
the average», The European Physical Journal B (84(4)), 707-711
Unamuno, Miguel de (1913), Del sentimiento trágico de la vida. Reedición: (1999), Madrid, Espasa
Calpe.
Wenneras, Christine, y Wold, Agnes (1997), «Nepotism and sexism in peer review», Nature (387),
341-343.
ASPECTOS PEDAGÓGICOS Y FILOSÓFICOS EN LA
ALFABETIZACIÓN CONSOFTWARE LIBRES
1. INTRODUCCIÓN
E n todo modelo educativo están implícitos o explícitos los aspectos pedagógicos y
por sus creadores,
filosóficos, estos formarán
son inherentes
parte dea ellos, aunque no hayan sido contemplados
la educación. Por tal motivo, este artículo
considera importante analizar estos aspectos en la alfabetización con software libre,
ver cómo están representados, cómo afectan los procesos de enseñanza aprendizaje y
conocer los valores que les aporta.
Los computadores están constituidos por dos partes fundamentales: el hardware
(parte física) y el software (la parte lógica y abstracta). Pero cada vez más el hardware
deja de estar circunscrito al ordenador convencional, puede estar en cualquier
artefacto digital del entorno, por lo que el código que da las instrucciones para su
funcionamiento se ha convertido en uno de los activos más valiosos de las industrias
desarrolladoras de software. Cualquier software puede superar por mucho el coste del
hardware que lo contiene. Por ende, las implicaciones del software en la
alfabetización urgen prestarles atención. Philipeson (2004, 2) ya veía esto en la
historia del software: «Hardware is important, but in a very real sense the history of
information technology is the history of software».
La discusión referente al software «privativo» no está limitada solo a aspectos
económicos, sino también a su propia naturaleza, «privar». Por tal razón, se analiza
cómo la alfabetización con software privativo conduce al individuo al utilitarismo,
alienándolo con licencias que caducan con el tiempo y eliminan la libertad a los
usuarios de inferir en su modificación, ya sea como sujeto colaborativo o activo.
Este trabajo asume que las mejoras de los procesos cognitivos que persiguen la
pedagogía y la filosofía son esenciales para considerar seriamente la selección de
herramientas tecnológicas para la alfabetización. En la alfabetización el desarrollo de
la cognición es primordial por el carácter mismo de alfabetizar. Integrar el software
libre en la alfabetización da la oportunidad a los individuos de desarrollarse
continuamente sin límites, libre y éticamente, y también de manera sostenible.
6. CONCLUSIÓN
Para concluir la pregunta que nos hacemos es, ¿por qué si el software libre es
bueno las instituciones y los estados no lo usan? La imparcialidad de los estados en
este aspecto representa una amenaza a las iniciativas locales y al fomento
internacional del desarrollo de software libre (González Barahona 2002). Los estados
como mediadores tienen el potencial de promover las iniciativas del software libre y
la alfabetización sería el mejor escenario para construir una cultura sostenible y libre
con las tecnologías digitales.
Las grandes compañías están sacando partido al software libre, mientras que la
apatía de los gobiernos está excluyendo a los ciudadanos del acceso a tecnologías
libres y alienándolos a las privativas, acción que viola el deber del Estado y perjudica a
los ciudadanos en el derroche de los erarios públicos (González Barahona 2002).
Freire (2005, 50) dice, «Ahora mismo ya nadie educa a nadie, así como tampoco
nadie se educa a sí los hombres se educan en comunión, y el mundo es el mediador.
Mediadores son los objetos cognoscibles que, en la práctica «bancaria», pertenecen al
educador, quien los describe o los deposita en los pasivos educandos». El software
libre ha venido creciendo gracias a esta capacidad de las personas de actuar en
comunidad.
El camino recorrido desde la alfabetización tradicional hasta los enfoques
filosóficos y pedagógicos en la alfabetización con software libre han brindado una
visión teórica general sobre las implicaciones que conlleva integrar software en la
educación, sin tomar en cuenta ciertos parámetros determinantes para el futuro del
alfabetizando y la cultura en general.
Indicar finalmente que algunos temas no fueron del todo desarrollados, necesitan
que se siga trabajando en ellos en otras investigaciones, por el aporte que pueden
brindar al pensamiento pedagógico-filosófico contemporáneo.
REFERENCIAS BIBLIOGRÁFICAS
Barrón Ruíz, Ángela (1989), «Presupuestos para un programa racional de formación del enseñante»,
Bordón, Revista de pedagogía, 41 (4), 681-90.
Brandão, Raúl (2007), Húmus, Verónica Palomares Maíllo, Madrid, Biblioteca ERL Ediciones.
Braslavsky, Berta (2003), «Qué se entiende por alfabetización», Lectura y Vida, Revista
Latinoamericana de Lectura, 2003.
s. f. «Literacy». Cambridge Dictionary. Accedido 14 de marzo de 2017.
CD. http://www.lecturayvida.fahce.unlp.edu.ar/numeros/a24n2/24_02_Braslavsky.pdf.
http://dictionary.cambridge.org/es/diccionario/ingles/literacy.
Feltrero, Roberto, Bruno Maltrás, y Mario Toboso-Martín (2015), Proyecto Heliox: entornos de
interacción para la diversidad funcional, Universidad Internacional de Andalucía.
http://digital.csic.es/handle/10261/140461.
Freire, Pablo (2005), Pedagogía del Oprimido, 3ra ed. México, Siglo veintiuno editores.
Fromm, Erich (1977), «El miedo a la libertad», Editorial Abril, Buenos Aires.
Gallego Arrufat y María Jesús (1994), El Ordenador, el currículum y la evaluación del software educativo,
[Granada], Proyecto Sur.
González Barahona, Jesús (2002), «¿Qué se hace con mi dinero?», Revista Todo Linux, 2002.
https://gsyc.urjc.es/~grex/sobre-libre/sobre-administracion.html.
Kuhn, Thomas S. (2006), La estructura de las revoluciones científicas, 213, Fondo de cultura económica.
Morán, Mirtha. s. f. «Educación de calidad», Desarrollo Sostenible (blog). Accedido 10 de noviembre
de 2017. http://www.un.org/sustainabledevelopment/es/education/.
Moreno, Guadalupe. 2017. «Fabricados con fecha de caducidad». Statista Infografías. 2017.
https://es.statista.com/grafico/10004/fabricados-con-fecha-de-caducidad/.
OED. s. f. «Literacy». OED Online. Oxford University Press. Accedido 14 de marzo de 2017.
http://www.oed.com/view/Entry/109054.
Philipson, Graeme. 2004. «A short history of software». 2004.
http://www.thecorememory.com/SHOS.pdf.
RAE. s. f. «Alfabetizar». Diccionario de la lengua española. Accedido 13 de marzo de 2017.
http://dle.rae.es/?id=1jZSGJY.
Raymond, Eric. 2003. La catedral y el bazar, versión en castellano. Argentina: OPENBIZ.
http://www.openbiz.com.ar/La%20Catedral%20y%20El%20Bazar.pdf.
Stallman, Richard. 2014. «El software libre es una cuestión de libertad, no de precio». UC3M,
Repositorio institucional e-Archivo, 2014. https://e
Stallman,
archivo.uc3m.es/bitstream/handle/10016/18459/i3_ENE14_Software_libre.pdf.
Richard. 2004. Software libre para una sociedad libre. Traficantes de sueños. Madrid.
[1] «Propietario» es una transliteración del término inglés proprietary que está aún en discusiones
http://www.nodo50.org/ts/editorial/librospdf/free_software.pdf.
porque también incluiría muchos softwares libres que son distribuido bajo las condiciones de derecho de
autor (copyright).
[2] Existen algunos casos de software privativo que no son comerciales, no obstante, pueden traer
algunos modelos de negocios en los que venden las informaciones de los usuarios a un tercero.
[3] La libertad 1 y 3 exigen que se libere el código fuente.
CONSOLIDACIÓN DE UNA SÍNTESIS FENOMENOLÓGICA: EL
CASO DE ESTUDIO SOBRE LA ELECTRICIDAD VOLTAICA
José Francisco MALAGÓN SÁNCHEZ (1), Sandra SANDOVAL OSORIO (2), Marina GARZÓN
BARRIOS, María Mercedes AYALA MANRIQUE (4), Liliana TARAZONA VARGAS (5).
RESUMEN: Se hace un estudio de los textos originales de Volta y la recopilación que hace
Ostwald de la constitución de la electroquímica. Se muestra cómo la invención del aparato
electromotor (Pila Voltaica) introduce nuevos términos y conceptos basándose, inicialmente,
en el lenguaje del momento; luego, estableciendo las características del contacto entre
superficies metálicas de diferente clase; y por último, haciendo explícitas las reglas de
funcionamiento, lo cual nos ayuda a hacer énfasis en la relación lenguaje – experimento.
Dos aspectos se destacan: Por una parte, se identifica que el trabajo experimental lleva a la
cuantificación de la cantidad de sustancias que se producen en relación con las cantidades de
corriente eléctrica.
Por otra parte, se resaltan las relaciones de equivalencia: En un principio, fenómenos
eléctricos y fenómenos químicos son de distinta clase, pero se logran relacionar ya que una
tensión eléctrica provoca una transformación química y viceversa. Esta cuestión plantea la
posibilidad de pensar que la convertibilidad permite relacionar fenómenos de distinta
naturaleza. Estudiar la convertibilidad entre fenómenos requiere construir formas de
expresión de a cuánto equivale el cambio del fenómeno A en términos del fenómeno B lo cual
se concreta en aparatos de medida y construcción de magnitudes.
Palabras clave: Síntesis fenomenológica; Campos fenomenológico; Electroquímica; Relaciones
de Equivalencia.
1. INTRODUCCIÓN
Se presenta el estudio realizado sobre la construcción de la pila voltaica, basado
principalmente en la obra de Volta (1800) y en las distinciones y los nuevos
fenómenos producidos a lo largo de la primera parte del siglo XIX relatados por W.
Ostwald (1912) –representante renombrado del fenomenismo del siglo XIX, quien en
su tratado sobre la evolución de la electroquímica destaca principalmente las
relaciones entre clases diferentes de fenómenos. La electroquímica nos deja ver la
conexión entre los fenómenos químicos y los fenómenos eléctricos por el vínculo
estrecho entre la descomposición de sustancias y la conducción eléctrica. Vínculo que
solo fue posible de establecer cuando se evidenció que en unas disposiciones
particulares de pilas, al interrumpir la acción eléctrica se interrumpían las acciones
químicas, e igualmente, que al interrumpir las acciones químicas se interrumpían las
acciones eléctricas.
Volta había logrado a comienzos del siglo XIX mostrar que la electricidad animal
es de la misma clase que la producida en las botellas de Leyden, pero con un efecto de
mayor continuidad. A diferencia de Galvani, Volta considera que el efecto observable
en las contracciones de las ranas se puede reproducir mediante combinaciones de
metales, porque su naturaleza no es de origen exclusivo animal. A este respecto
hemos hecho varias elaboraciones en trabajos anteriores, en donde hemos señalado
que por esta vía, Volta elabora formas de hablar de las condiciones para la producción
y observación de los efectos y describe en gran detalle los efectos sensibles y los
sensores utilizados.
En el análisis de dicho trabajo, encontramos que la invención del aparato
electromotor va acompañada de la introducción de nuevos términos y conceptos para
pensarlo y describirlo, basados en el lenguaje que es común en el momento, teniendo
entonces pleno significado y su razón de ser el uso del término escogido: se hablaba de
carga, descarga, chispa eléctrica, generadores de electricidad, y se introducen
términos conceptuales como: contacto entre superficies metálicas de diferente clase,
fluido eléctrico, acción continua, fuerza o acción electromotriz (fuerza con la que el
fluido eléctrico es empujado), aparato electromotor. (Ayala et al. 2014).
En la presentación de su invento (Volta 1800/200) y la fenomenología en torno al
efecto volta, es posible distinguir los siguientes aspectos:
a. Elabora formas de hablar de las condiciones para la producción y observación de
los efectos. Volta describe el dispositivo objeto de la comunicación contrastándolo
en su composición y funcionamiento con los aparatos conocidos en su época,
específicamente con la botella de Leyden; recurso que resulta apenas obvio cuando
se trata de hacer las distinciones debidas para compartir ideas; usa para ello
algunos de los términos especializados de la época (materiales eléctricos y no
eléctricos o conductores) además, muestra los que pueden ser considerados
prototipos de su invento mediante algunos dibujos de los posibles arreglos.
b. Describe en gran detalle los efectos sensibles y sensores utilizados con los
términos conmoción, entumecimiento, golpe, pinchazo, abrasión, sensaciones de
sabor, entre otros; los describe, tomando el cuerpo humano como el principal
indicador del efecto Volta. Incluye en su presentación la especificación de
maneras de mejorar y asegurar la detección de dichos efectos sensibles.
c. La invención del aparato electromotor va acompañada de la introducción de
nuevos términos y conceptos para pensarlo y describirlo, basados en el lenguaje
que es común en el momento. Las palabras tienen entonces pleno significado, y
hay una razón de ser en el uso del término escogido: aquello que antes se llamaba
carga, descarga, chispa, generadores de electricidad después se denomina
contacto entre superficies metálicas de diferente clase, fluido eléctrico, acción
continua, fuerza o acción electromotriz (fuerza con la que el fluido eléctrico es
empujado).
Cada uno de estos aspectos destacados, en el trabajo de Volta, constituyen
momentos de formalización en donde se establece una relación estructural entre la
producción de efectos, la constitución de un lenguaje y la delimitación de una clase de
fenómenos.
Ostwald señala, por una parte, las principales preguntas o interrogantes que
acompañan los estudios de los efectos producidos en la pila voltaica, y por otra, el
carácter experimental que lleva a la formalización de leyes «empíricas» que se
producen. Se resalta la simultaneidad con la que estas formalizaciones generan
nuevas prácticas y formas diversas de percibir los potenciales eléctricos y la
conductibilidad de las sustancias.
4. CONSIDERACIONES FINALES
A partir de las reflexiones que hemos expuesto se destacan operaciones en las que
distinguimos y delimitamos fenómenos y relaciones entre fenómenos, diferentes
clases de experiencias se aglutinan bajo una misma forma de comprensión, se generan
proposiciones que expresan generalizaciones y se llega a representaciones alrededor
de unos campos fenomenológicos que son consolidados en estos procesos.
Además, se establecen comparaciones desde las cuales se derivan relaciones de
equivalencia y proporcionalidad, esto nos invita a pensar que el establecimiento de
tales relaciones, y también la posibilidad de conversión entre los fenómenos químicos
y eléctricos, pueden considerarse criterios que organizan la actividad de síntesis
teórica en este caso, en tanto es la cuantificación de estos diversos efectos la que
permite establecer relaciones o relaciones entre relaciones.
Hemos mostrado que la actividad experimental propicia la detección de efectos
sensibles y el estudio de las condiciones para producirlos y alterarlos, lo cual al mismo
tiempo se traduce en la selección de aspectos relevantes que permitan establecer
relaciones de clasificación, ordenación y medición. En torno a esta riqueza de la
actividad experimental, los dominios fenomenológicos estudiados conducen a
establecer relaciones entre fenómenos de diferente clase y la constitución de nuevos
campos fenomenológicos. Según esto, es posible reafirmar que la actividad
experimental se puede asumir como una actividad orientada a la concreción o síntesis
de planteamientos teóricos, lo cual se constituye en un elemento central de nuestro
trabajo investigativo.
REFERENCIAS BIBLIOGRÁFICAS
Ayala Manrique, M. M., Malagón Sánchez, J. F. y Sandoval Osorio, S. (2014), El lenguaje y la
construcción de fenomenologías: El caso del efecto Volta, Revista Brasileira de História da Ciência,
7 (2), 203-213.
Ayala Manrique, M.M., Malagón Sánchez, J.F. y Sandoval Osorio, S. (2011), Magnitudes, Medición y
Fenomenologías. Revista De Enseñanza De La Física de Argentina, vol: 24 fasc: 1 págs: 43-54
Ostwald, W. (1912), L’evolution de l’électrochimie, París, Librairie Félix Alcan.
Volta, A. (1800 / 2000), Sobre la electricidad excitada por el simple contacto de sustancias
conductoras de distintas especies. Traducción hecha por Colombo, Emma Sallent. Llull: Revista
de la Sociedad Española de Historia de las Ciencias y de las Técnicas, 23 (48), 763-748.
1 En anteriores proyectos hemos distinguido tres formas diferentes, pero relacionadas entre sí, en el
proceso de constitución de una medida: la clasificación, la ordenación de cualidades por grado de mayor a
menor y la forma cuantitativa referente a las diferencias de grado de cierta magnitud. (Ayala, 2011). En el
estudio de estos procesos se hace necesario diferenciar y establecer criterios de ordenación, una cualidad
que cambia de intensidad produce efectos en otra cualidad conocida. Para establecer estas relaciones se
requieren procesos importantes como además de establecer que una cambia con respecto a la otra, revisar
cómo cambia y cuánto cambia, es decir establecer que la variación de una cualidad equivale a la variación
de la segunda. Construir estas situaciones de equivalencia aportan a la construcción de la medida de los
fenómenos y a la construcción de aparatos de medida.
UMA INTRODUÇÃO CRÍTICA À ENERGIA EÓLICA: OS VENTOS
QUE SOPRAM NO RIO GRANDE DO NORTE
RESUMO: A demanda por grandes fontes energéticas tornou-se mais evidente a partir dos
sécs. XVIII-XIX com a Revolução Industrial e a produção em larga escala. Com uso de
combustíveis fósseis como matriz energética ocorreu a acelerada degradação do meio
ambiente. Neste cenário, a energia eólica surge como alternativa por ser viável para extração e
com impactos socioambientais em menor escala na implantação/operação. Assim, este artigo
possui como objetivo relatar a expansão desta modalidade energética no mundo e no Brasil, e
como este novo paradigma energético impactou o Nordeste brasileiro, especificamente o Rio
Grande do Norte.
Metodologicamente, esta pesquisa é de caráter qualitativo, por meio do aporte bibliográfico e
dos estudos de Ciência, Tecnologia e Sociedade (CTS), proporcionando uma reflexão quanto ao
uso e escolha da energia eólica como matriz energética, além de constatar a predominância da
visão instrumental, evolutiva e linear da ciência e tecnologia quando se trata do aparato
tecnológico supracitado. Por fim, podemos concluir que fatores sociopolíticos, econômicos e
ambientais pautam as direções que «os ventos» da energia eólica sopram na sociedade
contemporânea.
Palavras Clave: Parques eólicos; vulnerabilidade socioambiental; estudos de CTS.
1. INTRODUÇÃO
Grandes fontes de energia tornaram-se necessárias devido ao processo oriundo da
revolução industrial que ocorreu inicialmente na Inglaterra e se difundiu pelo globo
entre os séculos XVIII e XIX. Nesse primeiro momento de revolução industrial, as
principais matrizes energéticas foram derivadas de combustíveis fósseis e como
consequência ocorreu uma acelerada degradação do meio ambiente, ocasionando
mudanças climáticas em vários pontos do nosso planeta, além do degelo das calotas
polares, assim como o esgotamento dos recursos naturais disponíveis.
A partir da segunda metade do século passado, o conceito de Desenvolvimento
Sustentável se disseminou, portanto, como sendo aquele que atende às necessidades
atuais sem comprometer as necessidades das futuras gerações em May; Lustosa e
Vinha (2003, 72), além do aumento considerável de pesquisas e aprimoramento de
tecnologias geradoras de energia a partir de fontes renováveis. Juntamente com estes
conceitos também surge o de Energias Limpas e Renováveis que são aquelas que não
liberam, em seu processo de consumo ou geração, resíduos ou gases que agravem o
aquecimento global e/ou aumente a escassez dos recursos naturais existente, advindo
ainda de uma fonte contínua e renovável em Cunha (2006,52).
Seguindo este pensamento, surge como alternativa a energia canalizada através da
força dos ventos, sendo uma matriz energética viável para ser extraída, pois, possui
impactos ambiental e social em menor escala na sua implantação e operação. Hoje,
estima-se que no mundo existem mais de 30 mil turbinas eólicas, com uma capacidade
de até 40.000 MW por Hinrichs e Kleinbach (2003, 187). No Brasil dispõe-se de um
vasto potencial que ainda não é explorado, e dentro de todas as regiões brasileiras, a
região Nordeste concentra cerca de 70% deste potencial. Até a década de 90
acreditava-se que o potencial eólico brasileiro estava na ordem de 20.000MW, hoje,
esta estimativa já chega em torno de 60.000MW de acordo com estudos mais recentes,
conforme atlas da energia elétrica emitido no ano de 2006 pela Agência Nacional de
Energia Elétrica –ANEEL. Considerando a região nordeste do Brasil, a qual possui a
maior parte do potencial eólico, encontra-se o estado do Rio Grande do Norte– (RN)
que representa um dos locais mais privilegiados para a produção de energia eólica em
território brasileiro de acordo com Aneel (2006, 95), hoje, já autossuficiente em
produção de energia eólica, o RN conta com 70 parques eólicos em operação, 31 em
construção e 67já autorizados para iniciar a implantação em Paulino (2015, 1).
Ante ao exposto, o presente artigo possui como objetivo relatar e analisar o
desenvolvimento do uso da energia no mundo e no Brasil com enfoque na energia
eólica e como este novo paradigma de produção energética impactou a região
Nordeste do Brasil, em especial o RN. De um modo mais específico, deseja-se visualizar
o cenário histórico, desde os aportes bibliográficos e dos estudos de Ciência,
Tecnologia e Sociedade (CTS), quanto ao desenvolvimento da energia eólica e seus
impactos socioambientais. Evidenciando os locais e os acontecimentos que
proporcionaram o surgimento deste tipo de energia, como também permitiram
dimensionar o seu potencial quanto a facilidade de exploração e sua capacidade de
geração, sobretudo, no caso específico do Rio Grande do Norte, pretende-se fomentar
a reflexão crítica sobre os aspectos políticos e sociais que levaram ao uso desta
energia, além dos aspectos econômicos e ambientais.
Vale salientar, que aqui, nossa reflexão, consiste em analisar a adoção desta
tecnologia como matriz energética, e que esta como «coisa técnica» têm implicações
políticas. Logo, não podemos observá-la apenas pela sua contribuição à eficiência e à
produtividade, ou ainda pelas suas consequências ambientais, sejam negativas ou
positivas, mas também pelo modo que a escolha da matriz energética (da tecnologia)
pode incorporar formas específicas de relações de poder de acordo com Winner (1986,
19).
2. MATERIAIS E MÉTODOS
Quanto aos aspectos metodológicos, esta pesquisa é de caráter qualitativo, pois o
objetivo é produzir informações aprofundadas em acordo com Deslauriers (1991, 15),
de modo a destacar os aspectos holísticos, individuais e dinâmicos daqueles que estão
vivenciando o fenômeno em questão em Polit; Becker e Hungler (2004, 35). Por outro
lado, para Gil (2010, 41)esta pesquisa também é de natureza exploratória, tendo em
vista que envolve diretamente o levantamento bibliográfico como: livros, notícias,
artigos, documentos, relatórios a respeito do tema, etc.
Ainda tratamento dos materiais utilizados, realizamos a análise das informações
com base na bibliografia dos estudos de CTS, de modo a ser nossa principal referência
quanto tratamos de uma reflexão crítica dos impactos causados por determinada
tecnologia em meio a sociedade, no nosso caso, a tecnologia utilizada para a geração
de energia por meio da força dos ventos.
Desta maneira, apesar de ainda serem escassos os materiais que realizam análises
críticas quanto a uso da energia eólica, após a catalogação de todo o material obtido e
de selecionar aqueles que possuíam maior relevância para a presente reflexão,
realizamos a disposição das informações da história da energia canalizada da força dos
ventos, expondo onde e quando surgiu e como ocorreu seu processo de avanço quanto
tecnologia (coisa técnica), demonstrando a partir das análises de CTS que direção que
foi optada para ser seguida.
5. CONSIDERAÇÕES FINAIS
Considerando todo o conteúdo exposto, podemos constatar o quanto aspectos
socioeconômicos estão incorporados as tecnologias, ou seja, também estão
impregnados nos aerogeradores de energia eólica. Dentro destes aspectos subjetivos,
podemos perceber o quão a visão evolucionista e linear aqui citada está impregnada
em nossa sociedade, de modo que por mais que tentemos desenvolver uma visão
crítica diante a ótica do uso de tecnologias e sua neutralidade, constatamos que nós
mesmos estamos inseridos neste contexto e que possuímos dificuldade de nos
desprender desta linha de pensamento. Porém, mesmo que de forma sútil, chegamos à
conclusão que fatores políticos, sociais, econômicos e também ambientais pautam as
direções que «sopram os ventos» da energia eólica dentro da sociedade.
Outro resultado relevante desta pesquisa diz respeito à constatação da visão
predominante instrumental, evolutiva e linear de ciência e tecnologia e que
perpassam também o uso e a história da energia eólica. Deste modo e desde a
perspectiva dos estudos de CTS, fica evidente o quanto se faz necessário a reflexão
crítica também sobre a energia gerada pelo vento. Ou seja, estes novos e grandes
empreendimentos cuja matriz energética é a eólica, por mais que à primeira vista
sejam considerados «energias limpas», não podem abdicar desta análise, pois, mesmo
considerando todo o seu potencial benéfico para o meio ambiente e para a sociedade,
ainda há vários aspectos que que merecem atenção e devem ser melhor avaliados,
como é o caso dos impactos para a população que vivem em torno aos parques eólicos.
6. REFERÊNCIAS BIBLIOGRÁFICAS
ANELL, Agência Nacional de Energia Elétrica (2006), «Energia eólica. In: Atlas de energia elétrica no
Brasil», Brasília, 243p.
Araújo, Marcos S. M. (2000), «Relatório de análise do mecanismo de desenvolvimento limpo – MDL: estudo
de caso», Rio de Janeiro, COPPE.
Chesf-Brascep (1987), «De cata-ventos a aerogeradores: o uso do vento», Rio de Janeiro, Fontes
Energéticas Brasileiras, inventário.
Cunha, Eduardo (2006), «A Energia Limpa do Desenvolvimento», Recife.
Cutter, Susan L. (1996), «Vulnerability to environmental hazards», Profess in Human Geography, v.
20, n.4, p. 529-539, Dec.
Deslauriers, John P. (1991), «Reacherche qualitative. Guide pratique», Montreal, McGraw-Hill.
Gil, Antônio C. (2010), «Como elaborar projetos de pesquisa?», São Paulo, Atlas, 176p.
Hinrichs, Roger A. e Kleinbach, Merlin (2003), «Energia e meio ambiente», São Paulo, Pioneira
Thomson Learning, 708p.
Kaztman, Ruben (1999) «Vulnerabilidad, activos y exclusión social em Argentina y Uruguai»,
Santiago de Chile, OIT, 22p.
Latour, Bruno (2012), «Reagregando o social: uma introdução à teoria do Ator-Rede», Salvador/Bauru,
Edufba/Edusc.
May, Peter, Lustosa, Maria C. e Vinha, Valéria (2003), «Economia do meio ambiente: teoria e prática»,
Rio de Janeiro, Elsevier.
Moura, Maria. J. N. e Budke, Wagner. R. (2013), «Os impactos sociais e económicos provocados pela
chegada dos parques eólicos na região de Mato Grande», Natal, congic.
Moser, Caroline O. N. (1998), «The asset vulnerability framework: reassessing urban poverty
reduction strategies», World Development, New York, v. 26, n.1, p.1-19.
Paulino, Rita de C. (2015), «Rio Grande do Norte possui a maior matriz eólica do país», Natal, Junta
comercial do RN.
Polit, Denise F., Beck, Cheryl T. e Hungler, Bernadette P. (2004), «Fundamentos de pesquisa: métodos,
avaliação e utilização», Porto Alegre, Artmed.
Taylor, Denis (1996), «Wind energy», In: BOYLE, G. (Ed.), Renewable energy: power for a sustainable future,
Oxford, Oxford University Press.
Winner, Langdon (1986), «Artefatos têm política? In: The whale and the reactor – A Search for limits in na
age of high technology», Traduzido por Fernando Manso, Chicago, The Univesity of Chicago
Pressa, p. 19-39.
EL USO DE LOS INGRESOS ECONÓMICOS ANALIZADOS DESDE UNA
VISIÓN DE GÉNERO
Lilián Marisa MÉNDEZ RAVINA (1), Gabriel Alberto AVIÑA SOLARES (2), Galia Alexandra
GUTIÉRREZ DELGADO (3)
(1) Escuela Superior De Turismo – Instituto Politécnico Nacional, Ciudad De México, México
mendezravina@gmail.com
(2) Escuela Superior De Turismo – Instituto Politécnico Nacional, Ciudad De México, México
gabrielsolares@outlook.com
(3) Escuela Superior De Turismo – Instituto Politécnico Nacional, Ciudad De México, México
galia.agd@gmail.com
RESUMEN: La presente investigación se fundamentó en las diferencias salariales que existen entre los
géneros femenino y masculino para conocer si la condición de cada persona determina la desigualdad de
ingresos económicos, comprender el uso que le dan a este dinero y analizar las posibles brechas entre
mujeres y hombres que desempeñen la misma tarea o el mismo puesto laboral.
El estudio se realizó en la Escuela Superior de Turismo con un grupo de docentes, diferenciando el
estado civil, la edad y el sexo de los profesores.
La información se recolectó por medio de cuestionarios en la plataforma de Google Forms, este
instrumento fue respondido en las instalaciones de informática de la universidad.
Al finalizar con la encuesta se hizo un análisis de las respuestas, dando un cruzamiento de datos y
segmentando la información dependiendo el sexo del encuestado, para priorizar la utilización de sus
ingresos a fin de poder identificar si las diferencias se centran en el género.
Palabras clave: ingresos económicos; género; transversalidad; diferencias salariales.
1. INTRODUCCIÓN
La inequidad de género es un fenómeno de dimensiones múltiples, que se expresa en una
reducida participación de las mujeres en la toma de decisiones públicas y en pautas culturales
que dificultan el ejercicio de sus derechos de ciudadanía en igualdad de condiciones con
respecto a los hombres (Gustá y Caminotti 2010, 85). Considerando que los pueblos de las
Naciones Unidas han reafirmado en la Declaración de los Derechos Humanos su fe en los
derechos fundamentales del hombre, en la dignidad y el valor de la persona humana y en la
igualdad de derechos de hombres y mujeres, y se han declarado resueltos a promover el
progreso social y a elevar el nivel de vida dentro de un concepto más amplio de la libertad
(Organización de las Naciones Unidas 2015), así mismo comprender que el género es el
conjunto de características culturalmente específicas que identifican el comportamiento
social de las mujeres y de los hombres y la relación entre ellos. El género, no se refiere
simplemente a mujeres u hombres, sino a la relación entre ellos y a la forma en que ésta se
establece socialmente. Es decir la igualdad entre los géneros se refiere a todos los niveles
educativos, laborales, distribución de los recursos y la participación igualitaria y justa de
hombres y mujeres en la vida política y publica de las naciones, Servicio Nacional de la Mujer
en Chile (SERNAM) (2002, 3).
Al conocer estos conceptos generales y adentrarnos en el estudio se localizó un problema
el cual radica en la carencia de información referente al uso de los recursos económicos entre
hombres y mujeres, en investigaciones internacionales el libro de Sandra Dema Moreno
(Recuperado de Martínez 2008,53) se realizó a partir de entrevistas en profundidad a parejas
de doble ingreso. Lo novedoso de esta obra es que, por un lado, investiga el vínculo entre el
dinero y la desigualdad en el caso español; y, por otro lado, se centra en aquellas parejas que
supuestamente podrían ser más igualitarias, dado que en ellas varones y mujeres tienen un
empleo y, por tanto, ingresos propios. En el libro se abordan fundamentalmente, tres
cuestiones. La primera es el significado del dinero y cómo los recursos económicos se
constituyen o no en elementos de poder dentro de las relaciones de pareja. La segunda
cuestión son los procesos a través de los cuales se produce y reproduce el poder en la pareja,
tales como los modelos de gestión y administración del dinero en el hogar y el uso del dinero
por parte de varones y mujeres. Y finalmente, la tercera son las fórmulas de negociación y la
toma de decisiones dentro de las parejas.
Hombres y mujeres desempeñan roles diferentes tanto en el ámbito familiar como en el
ámbito social y laboral. Es común escuchar y leer que en el hogar, a las mujeres las siguen
viendo tan sólo como garantes del bienestar familiar, por lo cual se espera que sus ingresos
sean destinados a mantener ese «bienestar» mientras que a los hombres se les «permite»
destinar parte de sus ingresos a la recreación propia o con amigos.
Las desigualdades económicas que se generan en el hogar son el resultado de una amplia
combinación de factores tales como las discriminaciones laborales que sufren las mujeres, el
reflejo de la flecha salarial en el interior de las familias, el tipo de políticas públicas, en
particular de las relativas a la conciliación de la vida laboral y personal y a la oferta de
atención a las personas dependientes, junto con la pervivencia de una cultura que asocia los
varones a lo monetario y las mujeres al cuidado. Comprender en qué medida las desigualdades
de género perviven en las parejas de doble ingreso y si la diferente aportación económica de
cada miembro de la pareja tiene un aumento perceptible en el aumento o disminución de la
igualdad en el interior de los hogares (Martínez, Moreno y Finkel 2013, 203).
Adentrándose más al tema relacionado con el consumo y las preferencias en los bienes
materiales que mujeres y hombres poseen Botero, Gutiérrez, Manjarrés y Torres (2008, 25)
ponen en evidencia las diferencias que existen entre género con relación a los objetos que
tienen, en el cual las mujeres tienen mayor preferencia a bienes con una carga de valor
sentimental, mientras que los hombres objetos referentes al ocio y las finanzas.
Por otra parte Elson (2000, 8) menciona que «el tema de la inseguridad es especialmente
importante para las mujeres, porque las mujeres típicamente y en última instancia, tienen la
responsabilidad del bienestar de los hijos. La aptitud de las mujeres para estirar los recursos
menguantes, a menudo a costa del propio bienestar, es una red de seguridad para los niños y
hombres».
En ese sentido, el enfoque de desarrollo humano hace hincapié en que los mercados deben
regularse socialmente, estableciendo normas y reglas que limiten las conductas mercantilistas
de las empresas e individuos y brindando incentivos que apoyen los objetivos del desarrollo
humano.
Tradicionalmente, las mujeres no han participado en el ámbito laboral y económico del
mismo modo que lo han hecho los hombres, sino que por el contrario, se observa que a lo
largo de la historia se han reproducido y perpetuado determinados rasgos en relación a la
situación laboral de ambos sexos que ocasionan diferencias laborales importantes entre
hombres y mujeres.
Mujeres y hombres no ocupan el tiempo de la misma forma ni realizan las mismas tareas:
el rasgo básico reside en que el trabajo doméstico recae fundamentalmente sobre las mujeres.
Pero las mujeres que acceden al mercado laboral tampoco lo hacen en iguales condiciones que
los hombres, sino que las personas de uno y otro sexo trabajan en diferentes sectores y
ocupaciones, no ocupan los puestos directivos de una forma equitativa y no perciben los
mismos salarios por el trabajo realizado. Estas situaciones repercuten directamente en la
situación económica y social de las mujeres e incluso en su estado físico y emocional, es decir,
en su estado de salud. De este modo, las mujeres quedan en una situación de desventaja muy
importante que conlleva desigualdades e injusticias sociales graves. Este tema es
especialmente preocupante en la medida en que son las mujeres quienes generalmente se
ocupan de los hijos, por lo que si su situación familiar, laboral y económica es precaria se
enfrentan a dificultades importantes para atenderles adecuadamente.
Dadas estas diferencias se debe de considerar que también la utilización de los ingresos
que se obtienen son diferentes y no se encuentra en la literatura referencia sobre este aspecto
por lo cual es un tema importante de investigar ante la imposibilidad de comenzar la
investigación en todo el universo se comenzaría primeramente entre el grupo de docentes de
la Escuela Superior de Turismo pudiendo hacer la relación no solo de la aplicación del ingreso
sino también cual es la diferencia entre hombres y mujeres dependiendo su estado civil.
2. METODOLOGÍA
El diseño de la investigación es transversal ya que implica que la recolección de
información en una muestra dada de elementos, los instrumentos se aplicaron una sola vez en
el tiempo.
La investigación fue mixta ya que tuvo una parte cuantitativa en la cual se recabaron datos
de estado civil, edad, sexo, categoría, cantidad de horas en propiedad y en interinato, ingresos
mensuales, distribución de los ingresos en los gastos realizados.
Después de analizar los datos y de encontrar diferencias en la utilización de los ingresos se
realizaron encuestas a una muestra representativa de hombres y mujeres para conocer la
causa de las diferencias y determinar si el género es el motivo de las discrepancias
encontradas.
La presente investigación considera una perspectiva exploratoria, debido a la generación
de nueva información para determinar la diferencia de ingresos entre mujeres y hombres, y si
está difiere debido a la condición de cada sexo. A la par se sientan las bases para investigar
nuevos problemas y se fijan prioridades para investigaciones futuras.
De la misma manera, también se considera que esta investigación encaja en la perspectiva
descriptiva ya que los fundamentos relacionados a la diferencia entre mujeres y hombres, sus
roles dentro del hogar y su función como docente; así mismo se recolectaron datos concretos
por medio de un instrumento, dichos datos se miden y se analizaron a fin de obtener una
descripción puntual.
La población determinada para este estudio fue de 55 docentes de la Escuela Superior de
Turismo, 37 mujeres y 18 hombres.
Debido a lo reducido del universo de estudio, no se realizó el proceso de muestreo, sino
que se recolectaron datos mediante un censo aplicado a la totalidad de la población estudiada.
La validez se obtuvo de la implementación del método de expertos para el diseño del
instrumento de medición utilizado, se trata de un método de pronóstico cualitativo.
Este procedimiento utiliza un grupo de expertos para el análisis, mismos que se mantienen
aislados con objeto de minimizar el efecto de presión social y otros aspectos del
comportamiento de pequeños grupos, para tal efecto se eligieron cinco expertos en el área de
género, a quienes se les invitó a participar en el proyecto.
El método de expertos fue elegido para esta investigación ya que permite consultar un
conjunto de personas expertas en su área para validar una propuesta de instrumento de
medición, sustentado en sus conocimientos, investigaciones, experiencia y estudios
bibliográficos.
3. RESULTADOS
Los datos obtenidos con mayor relevancia son:
– El 67.9% de las respuestas obtenidas fueron dadas por mujeres y solo un 32.1% por
hombres.
– El promedio de edad de los docentes encuestados es de 47 años, los hombres es de 51 años,
en las mujeres es de 45 años
– La situación conyugal de los docentes es de un 50% casados, 25% solteros, 12.5%
divorciados, 8% en unión libre y 7% viudos. En esta estadística el 88% de los hombres están
casados y el 12% soltero, mientras que en las mujeres el 34% están casadas, el 27% soltera,
19% divorciadas, 12% viudas y 8% permanecen en unión libre.
– El número de personas que viven con los docentes ronda en 3, en cuanto a los hombres la
media es de 2.6 personas y mujeres de 2.55.
– El 85% de los docentes tiene hijos, en cuanto a los hombres el 88% tiene hijos y el 12% no
tiene. El 84% de las mujeres tiene hijos y un 16% no tiene.
– El promedio de cantidad de hijos en los hombres es de 1.8, mientras que en las mujeres es
de 1.7.
– Por parte de las edades de los hijos de los docentes, el promedio de edad en hijos de
profesores hombres es de 25 años, mientras que en las mujeres es de 16 años.
– El 66% de los hijos de los docentes hombres viven con ellos, el 34% no. En las mujeres esta
cifra cambia, el 75% de sus hijos viven con ellos y solo el 25% no.
– En relación a la pregunta en donde se cuestiona cuantas personas dependen
económicamente del docente, el 32% del total de encuestados dijo que ninguna persona
depende económicamente de ella o el, en cuanto a la disgregación por género, los hombres
tuvieron un promedio de 2 personas, al igual que las mujeres.
– Posteriormente se les cuestiono a los docentes, ¿entre cuántas personas se divide el gasto
del hogar?, el promedio de todos los maestros fue de 2 personas, esta respuesta no se
modificó en la disgregación de hombres y mujeres.
– Por otra parte se preguntó si los docentes consideraban proporcional lo destinado a gastos
en el hogar con lo que gana cada integrante?, en el cual el 75% de los encuestados
respondió que si era proporcional y el 25% dijo que no, el 88% de los docentes hombres
respondió que si era proporcional el gasto de los integrantes y el 12% dio una respuesta
negativa, en las mujeres el 67% dijo que si era proporcional lo destinado a los gastos,
mientras que el 33% estuvo en desacuerdo.
– En la siguiente pregunta se les cuestionó acerca del porcentaje de gastos mensuales del
hogar que aportan los docentes y las personas que viven con ellos, para lo cual
respondieron: el 44.5% de los docentes hombres aportan del 75 al 100% de los gastos del
hogar, el 22% dijo aportar entre un 50 a 75% de los gastos y el 33.5% de los docentes dijo
aportar del 25 al 50% de los gastos totales. Por otra parte, las mujeres respondieron: el 34%
aportan de un 75 al 100% de los gastos totales del hogar, el 39% aportan entre un 50 a 75%
de los gastos, el 23% entre un 25 a 50% de los gastos mensuales y solo un 4% dijo no
aportar nada a los gastos mensuales del hogar.
– La siguiente pregunta es relacionada a las actividades domésticas, entre cuantas personas
se dividen estas actividades, los hombres dio un promedio de 2.1 personas y las mujeres de
2.59 personas.
– Consecuentemente a la pregunta anterior, se les cuestionó acerca de las tareas del hogar,
arrojando la siguiente información: el 17% de los hombres dijo cubrir de un 75 a 100% de
las actividades domésticas del hogar, el 62% dijo cubrir de un 25 a 50% de menesteres
domésticos y el 21% de los docentes dijo no cubrir ninguna tarea doméstica. Por las
mujeres el 24% dijo cubrir un 75 a 100% de las actividades del hogar, el 36% dijo cubrir del
50 al 75% de las tareas domésticas y el 40% dijo apoyar con un porcentaje del 25 al 50%.
– El gasto de recreación mensual fue: un 30.7% de los docentes dijo gastar más de 1500 pesos
mensuales, el 17.7% gasta entre $300 y $600 pesos, 14.3% entre $900 y $1200, un 12.5%
gasta entre $1200 y $1500 pesos, otro 12.5% entre $600 y $900, y el 12.5% restante entre 0 y
$300 pesos. El 39% de los hombres gasta más de $1500 mensuales en recreación, el 21% dijo
gastar entre $1200 a $1500, el 16% gasta entre $900 a $1200 mensuales, el 11% gasta entre
$600 a $900 mensuales y el 13% gasta entre $300 y $600 mensuales. El 28% de las mujeres
gasta más de $1500 pesos mensuales en recreación, 8% gasta entres $1500 a $1200 pesos
mensuales, 13% gasta entre 900 y $1200 pesos mensuales, un 11% gasta entre $600 y $900
pesos, un 22% gasta entre $300 y $600 pesos y el 18% restante dijo gastar hasta $300 pesos
mensuales en recreación.
– Finalmente se les interrogo acerca de sus ingresos mensuales, para lo cual dijeron; en los
docentes el 6% ganan entre $4,000 y $8,000, el 16% percibe entre $12,000 y $16,000, 13%
gana entre $16,000 y $20,000, otro 12% gana entre $20,000 y $24,000 mensuales, 16% de los
docentes ganan entre $24,000 a $30,000 mensuales, y el restante dijo ganar más de $30,000
pesos mensuales. Mujeres p5.5% perciben entre $1,000 y $4,000 pesos mensuales, 22.5%
entre $4,000 y $8,000 pesos, 13% entre $8,000 y $12,000, 19% de las mujeres perciben entre
$12,000 y $16,000 pesos, 8% entre $16,000 y $20,000, 5% entre $20,000 y $24,000 pesos
mensuales, 16% entre $24,000 y $30,000 pesos mensuales y el 11% restante percibe más de
$30,000 pesos.
4. CONCLUSIONES
Al inicio de la investigación se indagó en estudios realizados por parte de instituciones
privadas relacionadas al gasto entre hombres y mujeres (principalmente empresas de
marketing), otorgando un primer acercamiento a la información real del tema en el cual la
diferencia entre el uso de los ingresos propios difiere por género, en donde los hombres
gastan más en objetos de ocio y finanzas mientras que mujeres en productos y/o servicios con
mayor carga sentimental, también se aborda el tema de la diferencia entre los ingresos que
obtienen mujeres y hombres dependiendo su puesto laboral, en donde se infiere en una
desigualdad en contra de las mujeres debido a que ocupan menos puestos directivos y sueldo
es menor aun cuando el trabajo que realiza sea igual al de un hombre.
Se conoció la distribución de los ingresos económicos de los docentes, evidenciándolo en
los diversos servicios que contratan y los gastos que aportan mensualmente en el
mantenimiento de su hogar, así como el apoyo que otorgan a sus hijos para su desarrollo
personal.
La relación del gasto difiere dependiendo del género, estado civil, edad, las horas que
trabajan y si los profesores tienen hijos u otras personas que dependan económicamente de
ellos. En este sentido cabe señalar que un porcentaje más alto de hombres gana arriba de los
20,000 pesos, sin embargo este porcentaje solo revela que son alrededor de 8 docentes, por el
lado de las mujeres son unas 12 las que ganan arriba de esta cantidad. Así mismo existe una
mayor cantidad de profesoras que ganan menos de 8,000 pesos mensuales, al tener esta
información es necesario profundizar con entrevistas directas a cada uno de los docentes para
conocer la situación personal e identificar los rasgos que hacen la diferencia de ingresos.
Durante el desarrollo de la investigación, se mantuvo en todo momento la convicción de
contribuir al conocimiento de una manera válida y estructurada, el impacto que se quiere
tener es para demostrar a las autoridades del Instituto Politécnico Nacional la situación de los
docentes y la diferencia entre los gastos que ellos generan, para poder replegar este modelo
en las demás escuelas pertenecientes al Instituto, contribuir a la igualdad económica, la
equidad de género y la divulgación de la información.
5. REFERENCIAS
Botero, María M., Gutiérrez de Piñeres, Marta, Manjarrés, Luz K., & Torres, Tatiana (2008), «La Relación del
SELF con el consumo en hombres y mujeres entre 18 y 24 años, estudiantes de la Universidad del Norte»,
REDALYCRed de Revistas Científicas de América Latina, el Caribe, España y Portugal, (21), 1-31.
Elson, Diane (coord.) (2000), «El progreso de las mujeres en el mundo 2000», Informe Bienal de UNIFEM (Fondo
de Desarrollo de las Naciones Unidas para la Mujer), Fondo de Desarrollo de las Naciones Unidas para la
Mujer (UNIFEM).
Caminotti, Mariana & Gustá, Ana L., (2010), «Políticas públicas de equidad de género: las estrategias
fragmentarias de la Argentina y Chile», SAAP, (4), 85-110.
Luco, Arriagada, Camilo & Sepúlveda Swatson, Daniela (Mayo de 2002), SERNAM.
http://app.sernam.cl/pmg/documentos_apoyo/GuiaincorporarperspectivageneroformulacionestudiosMINVU.pdf
Díaz Martínez, Capitolina (2008) Reseña de «Una pareja, dos salarios. El dinero y las relaciones de poder en
las parejas de doble ingreso», Revista Argentina de Sociología, (6), 203-206.
Dema Moreno, Sandra, Díaz Martínez, Capitolina & Finkel, Lucila (2013), «Desigualdades de género en la
distribución de los recursos económicos en las parejas», Papers, 53-73.
República, S. C. (2015), Banrepcultural.
http://www.banrepcultural.org/blaavirtual/ayudadetareas/economia/ingresos.
Unidas, O. d. (14 de Enero de 2015), UN. http://www.un.org/es/documents/udhr/
CIENCIA, POLÍTICA Y POLÍTICAS: ACERCA DE LOS
ENCUENTROS Y DESENCUENTROS EN RELACIÓN A LA NOCIÓN
DE PARTICIPACIÓN
1. INTRODUCCIÓN
E políticas
entre
ste trabajo
ciencia
científicas.
presenta
y política
una
Se yparte de preliminar en torno a la compleja relación
reflexión
las formas
en las que la misma se expresa en las
entender a las políticas científicas como
procesos sociales que se tejen en torno a «cuestiones socialmente problematizadas»
(Oszlak y O’Donnel 1978) por diversos actores (científicos, burócratas, políticos,
gestores), con diversos recursos de poder. Procesos donde la voz y participación de la
ciudadanía parece cobrar cada vez mayor importancia, al menos en lo formal.
Sobre esta base, el primer apartado procura exponer la complejidad que implica el
proceso de políticas públicas científicas. Luego se presentan algunas de las posibles
formas en las que el conocimiento científico puede permear la tomas de decisiones en
políticas científicas. Finalmente, se plantean algunas reflexiones acerca de la
participación ciudadana en estos procesos, con sus potencialidades y limitaciones.
BIBLIOGRAFÍA
Aguilar Villanueva, Luis (1994), El estudio de las políticas, 1.° Edición, México, Editorial Porrúa.
Funtowicz, Silvio, Strand, Roger (2007), «De la demostración experta al diálogo participativo»,
Revista, CTS, 8, 97-113.
García Rodríguez, Myriam, Díaz García, Irene (2011), «Más Allá del Paradigma de la Alfabetización.
La Adquisición de Cultura Científica como Reto Educativo», Formación Universitaria, 4 (2), 3-14.
Gibbons, Michael, Limoges, Camille, Nowotny, Helga, Schwartzman, Simon, Scott, Peter, Trow,
Martin (1997 [1994]), La nueva producción del conocimiento, Barcelona, Ediciones Pomares
Corredor.
López Cerezo, José A., Cámara Hurtado, María M. (2005), «Apropiación social de la ciencia», en
Percepción social de la ciencia y la tecnología 2004, Madrid, FECYT, 31-57.
López Cerezo, José A. (2009), «Ciencia, técnica y sociedad» en Andoni Ibarra Y León Olivé (eds.)
Cuestiones éticas en ciencia y tecnología en el Siglo XXI, 2da Edición, España, Editorial Nueva,
Organización de Estados Iberoamericanos, 113-158.
López Cerezo, José A., González García, Marta I (2011), «El giro participativo y sus problemas:
sociedad civil, representación y conocimiento», en Participación y cultura científica en contexto
internacional, España, Los Libros de la Catarata, 119-140.
Oszlak, Oscar, O’Donnell, Guillermo (1978), «Estado y políticas estatales en América Latina: hacia
una estrategia de investigación», Revista Cedes, 1, 1-44.
Quintanilla, Miguel A. (2012), «El pensamiento científico y la ideología de izquierdas», Página
Abierta (Informe IX Jornadas de Pensamiento Crítico), 218, 1-14.
Quintanilla, Miguel A. (2002), «La democracia tecnológica», Arbor, 173, 637-651.
Vasen, Federico (2011), «Los sentidos de la relevancia en la política científica», Revista
Iberoamericana de Ciencia, Tecnología y Sociedad – CTS, 7 (19), 2-32.
EMOCIONES, ACTITUDES Y NATURALEZA DE LA CIENCIA.
DIAGNÓSTICO EN ESTUDIANTES DE COLEGIOS PÚBLICOS DE
BOGOTÁ
RESUMEN: Se presentan los resultados del diagnóstico sobre emociones, actitudes hacia la
ciencia y algunos elementos sobre naturaleza de la ciencia realizado a niños de escuelas
públicas de Bogotá que participan en un programa de formación en ciencias que se desarrollan
como estrategia complementaria a la formación en ciencias en el aula escolar.
Se utilizaron en el diagnóstico versiones traducidas y adaptadas de los cuestionarios Draw a
Scientist, School Science Attitudes Survey y Survey of Attitudes Toward Astronomy en lo
relativo a naturaleza de la ciencia y actitudes hacia la ciencia. Para explorar las emociones se
realizó la traducción y adaptación de los cuestionarios de auto reporte de estados. Se hicieron
análisis descriptivos para los cuestionarios de actitudes hacia la ciencia y de emociones Se
evidenciaron diferencias que evidencian mejores actitudes y emociones más positivas en los
estudiantes de grados inferiores. Para la prueba de Dibuja un científico se realizaron pruebas
estadísticas y se encontraron diferencias significativas entre géneros y grados escolares. Los
hallazgos se tuvieron como referente para la continuación del programa a partir de marzo de
2017. El diagnóstico permitió identificar puntos de mejora en la adaptación y traducción de los
instrumentos.
Palabras clave: cuestionarios; evaluación; enseñanza de la astronomía.
1. INTRODUCCIÓN
E n el mundo contemporáneo marcado por la presencia de elementos científico
tecnológicos, es indispensable para la formación de ciudadanos que la educación
científica promueva su relación con tales elementos, propiciando espacios que
permitan la construcción de conocimientos y el desarrollo de habilidades, destrezas y
formas de pensamiento; favorezcan el reconocimiento de diferentes aspectos de la
ciencia y la tecnología (la naturaleza del conocimiento científico-tecnológico, sus
alcances y límites, riesgos, relaciones mutuas, etc.); y le den la posibilidad de adoptar
actitudes responsables y de participación activa en la toma de decisiones sobre temas
como salud, economía, política, proyecto de vida, etc. (Acevedo, Vázquez & Manassero
2003; Acevedo 2004; Martín 2006; Holbrook & Rannikmae 2009).
Teniendo este marco de referencia, el Planetario de Bogotá en conjunto con la
Secretaría de Educación del Distrito, ha formulado desde el año 2015 una estrategia
para la enseñanza de las ciencias con la intención de apoyar los procesos educativos
formales y brindar elementos que favorezcan la comprensión de la naturaleza de la
ciencia, la generación de actitudes positivas hacia esta y el desarrollo de emociones y
habilidades sociales. La estrategia promueve el aprender haciendo,
fundamentalmente desde la perspectiva de la enseñanza de las ciencias por
indagación (Harlen 2013) y el trabajo en torno a ideas científicas fundamentales
(Harlen 2010). Se estructura el programa a partir de la astronomía, aprovechando su
potencial para trascender abordar temáticas y realidades que tienen que ver con
diferentes esferas de la vida y campos del conocimiento (ciencias naturales y sociales,
prácticas artísticas, historia, etc.) (Secretaría de Educación del Distrito 2014).
Durante el segundo semestre se realizó un diagnóstico inicial con los estudiantes
participantes del programa, con dos objetivos:1) probar una batería de instrumentos
referenciados en la literatura internacional para recoger elementos sobre emociones
en el aprendizaje y actitudes y naturaleza de la ciencia; 2) establecer una
caracterización de la población que participa en el programa con relación a estos
mismos aspectos: la comprensión que tienen los de algunos elementos de la
naturaleza de la ciencia; las emociones que generan en los participantes los espacios y
las experiencias donde tienen contacto con actividades relacionadas con la ciencia y,
finalmente, evidenciar algunas de sus actitudes hacia la ciencia y hacia su aprendizaje.
2. ELEMENTOS CONCEPTUALES
La naturaleza de la ciencia y actitudes
Desde hace algunos años viene planteándose la necesidad de que los procesos de
enseñanza y aprendizaje de las ciencias tengan en cuenta la forma y la función del
conocimiento científico, de manera que su foco se cambie de las conclusiones
(conceptos, teorías, leyes, etc.) de dicho conocimiento hacia dar cuenta de la forma en
que este se logra y la función que cumple en la sociedad; entendiendo la ciencia como
un fuerzo intelectual y social para descifrar y comprender el mundo. Esto implica
abordar en la enseñanza de la ciencia una reflexión sobre su naturaleza a partir de
cuestionamientos como: ¿qué es la ciencia?; ¿cómo se trabaja científicamente?; ¿cómo
actúan los científicos como grupo social?, entre otros (Tamayo y Orrego 2005).
Emociones y aprendizaje
Se sabe que los factores emocionales influyen en el aprendizaje de las ciencias
(Sinatra, Brem y Evans 2008) y en lo que respecta a la enseñanza, se ha señalado su
importancia para facilitar el cambio conceptual, teniendo en cuenta que las
emociones positivas inciden en el aprendizaje (Heddy y Sinatra 2013). Igualmente, se
ha probado que la disonancia cognitiva que conduce a una respuesta emocional es una
barrera para el aprendizaje y la aceptación de conceptos científicos (Bland y Morrison
2015).
Siendo así, los educadores deben valerse de la empatía y la conciencia emocional
ya que el tono emocional de quien emite un mensaje, afectará la expresión corporal
del receptor, y ésta congruencia afectiva influye la comunicación constituyendo un
aspecto fundamental para la enseñanza y el aprendizaje.
3. ASPECTOS METODOLÓGICOS
La población participante fueron estudiantes de colegios públicos de Bogotá desde
el preescolar hasta noveno grado, con edades entre 4 y 17 años. El número de
participantes en el programa fue de aproximadamente 1270 a la semana, quienes
tenían encuentros semanales de entre 2 y 4 horas con los tutores del Planetario de
Bogotá.
En lo referente a naturaleza de la ciencia y actitudes hacia la ciencia los
cuestionarios revisados, traducidos y adaptados fueron: Draw a scientist (Chambers
1983; Farland-Smith 2012; Farland-Smith, Finson, y otros 2014) School Science
Attitudes Survey (SSAS) (Kennedy, Quinn y Taylor 2016) y Survey of Attitudes Toward
Astronomy (SATA)(Zeilik, s.f.).
Para explorar las emociones se realizó la traducción y adaptación de los
cuestionarios de auto reporte de Heddy & Sinatra (2013), de respuesta tipo Likert,
donde se exploraron ocho emociones organizadas en duplas para estructurar los
cuestionarios: disfrute-esperanza, orgullo-enfado, ansiedad-vergüenza,
desesperación-aburrimiento. Para recoger las respuestas se usó el formato SAM (Self
Assessment Manikin) (Bradley 1994), que usa imágenes antropomórficas o maniquíes
para expresar valencia emocional, activación (arousal) e intensidad, lo que facilitó la
aplicación a estudiantes de diferentes edades.
Los datos recolectados por medio de las encuestas aplicadas, fueron sistematizados
y luego tratados con el programa estadístico LERTAP5 (Laboratory of Educational
Research Test Analysis Package).
4. RESULTADOS
Actitudes
Los resultados de implementación del SSAS (Cuestionario de actitudes hacia la
ciencia escolar) en general fueron positivos, lo que indica que hay actitudes positivas
de los estudiantes con respecto a la ciencia escolar. Los estudiantes obtuvieron una
media de 45,45 puntos de un total de 56 puntos posibles, lo que equivaldría en una
escala de 1 a 10 una media de 8,1 puntos.
Los datos discriminados por ciclos y género, muestran que, en los ciclos de los
estudiantes de menor edad, se presentan actitudes más positivas que en los ciclos de
edades más altas. También se evidencia que hombres y mujeres presentan actitudes
similares hacia la ciencia escolar mientras que en los ciclos superiores muestran
mayores diferencias entre hombre y mujeres; siendo los hombres de mayor edad son
los que tienen actitudes menos positivas (gráfico 1).
En cuanto al cuestionario de actitudes hacia la astronomía (SATA), se aplicó a 376
estudiantes de ciclos II, III y IV. En general el resultado de la aplicación del
instrumento fue positivo. La media del puntaje fue de 123,05 de un total de 170 puntos
posibles, lo cual indica actitudes favorables de los estudiantes hacia la astronomía.
Los resultados discriminados por género muestran actitudes más positivas hacia la
astronomía en estudiantes mujeres (gráfico 2).
Fuente: elabor
ación propia.
0 Dibujos
contener
categorizados.
que
trazos
no Pueden
pueden
sin forma,
ser una Se refiere
no
Estos
pueden
dibujos
aser
aquellos
pueden
categorizados.
dibujos
contener
que Presenta una actividad difícil o imposible de
determinar.
Sensacional
1 «sensacionales».
contienen
mujerque
denominar
apariencia
o
un
comics.
Dibujos
similar
monstruo
que
aun
puede
los
claramente
como
seohombre
personajes
pueden
que
Estos
parecerse
tiene
odibujos
extraña
una
una
dea horror,
equipos,
instrumentos
Dibujos
ilustran
a
secreto,
un sótano,
a«sensacionales»
un
que
aparatos
menudo
lugar
provoca
cueva
queque
ocontiene
normalmente
o escenario
asco
se asemeja
que
u Dibujos con una actividad «fantástica» o
«sensacional» que puede genera temor u horror, a
menudo incluye equipos o instrumentos que
normalmente no se encuentra en un laboratorio.
Dibujos que incluyen fuego, explosivos o actividades
peligrosas.
no se encuentran en un
laboratorio.
Estereotipo
2 hombre
denominarse
«tradicionales»
«estereotipados»,
un
Dibujos
personaje
que
blanco.
pueden
que
como
o parece
contienen
un Representan
«tradicional»,
laboratorio
de
y equipo
computador)
aspecto
(puede
normal.
típico
un
en
que
lugar
incluir
una
con
muestra
habitación
una
un mesa
un Dibujos que pueden denominarse como
«tradicionales». Muestran una actividad que el
estudiante cree que puede suceder, pero en verdad,
es muy improbable que ocurra. Esta categoría
también incluye dibujos donde el estudiante escribe,
«este científico está estudiando…, o tratando
de…»Pero no muestra cómo se está haciendo esto.
Elaborado
3 Estos
más
minoría
Se refiere
allá
dibujos
odeauna
lo
dibujos
incluyen
tradicional.
mujerque
científica.
una
van Incluye
muestran
laboratorio
de un laboratorio
a los
uncerrado
dibujos
lugartradicional.
que
yque
diferente
no es un Dibujos que representan actividades realistas que
reflejan el trabajo que un científico podría hacer con
las herramientas apropiadas necesarias para realizar
dichas actividades. Un estudiante puede escribir:
«este científico está estudiando… o tratando de…» y
muestra cómo se está haciendo. Es decir, el
estudiante demuestra claramente cómo se está
realizando esta actividad.
Al discriminar por género y grados escolares se evidencia que entre las mujeres
hay mayor tendencia a dibujar científicas mujeres, aunque en los grados superiores
(8.° y 9.°) esta tendencia baja ostensiblemente. Por su parte los estudiantes hombres
dibujan pocas científicas mujeres y en el caso de los casos superiores este porcentaje
es aún menor.
5. CONCLUSIONES
Los estudiantes en general presentan actitudes positivas hacia la ciencia escolar y
hacia la astronomía y las sesiones realizadas por el Planetario son asumidas
emocionalmente de manera positiva. En cuanto a la imagen de la ciencia y de los
científicos, en general los estudiantes representan de manera bastante estereotipada
al científico, principalmente en lo relativo a las actividades que creen que realizan y a
los lugares donde llevan a cabo esta actividad. En cuanto a la apariencia, los hombres
hacen representaciones más estereotipadas que las mujeres y, en general, las
representaciones estereotípicas se hacen más frecuentes en los estudiantes a medida
que avanzan en su proceso educativo.
En cuanto a los instrumentos, la traducción y adaptación fue exitosa, se
encontraron algunos elementos para ajustar en la redacción de ítems y en la forma de
organizar los cuestionarios y aplicarlos.
REFERENCIAS BIBLIOGRÁFICAS
Acevedo, José (2004), «Reflexiones sobre las finalidades de la enseñanza de las ciencias: educación
científica para la ciudadanía», Revista Eureka sobre enseñanza y divulgación de las ciencias, 1(1) 3
16.
Acevedo, José, Ángel Vázquez, M.ª Antonia Manassero, (2003), «Papel de la educación CTS en una
alfabetización científica y tecnológica para todas las personas», Revista Electrónica de Enseñanza
de las Ciencias, Vol. 2, N.º 280-111.
Bland, Mark W, Elizabeth Morrison (2015), «The Experimental Detection of an Emotional Response
to the Idea ofEvolution», The American Biology Teacher 77 (6), 413-420.
Bradley, Margaret, Lang, Peter (1994), «Measuring emotion: the self-assesment manikin and
semantic differential», Journal of Behavioral Theorical and Experimental Psychiatry 25 (1), 49-59.
Chambers, David W., (1983), «Stereotypic Images of the Scientist: The Draw a Scientist Test», Science
Education 67 (2), 255-265.
Farland-Smith, Donna. 2012. «Development and Field Test of the Modified Draw-a-Scientist Test
and the Draw-a-Scientist Rubric», School Science and Mathematics 112 (2), 109-116.
Farland-Smith, Donna, Finson, Kevin, Boone, Willian J., Yale, Melissa, (2014), «An Investigation of
Media Influences on Elementary Students Representations os Scientists», Journal of Science
Teacher Education 25,355-366.
Harlen, Wynne, (2013), «Assessment & Inquiry-Based Science Education: Issues in Policy and Practice»,
Trieste. Italy, Global Network of Science Academies (IAP) Science Education Programme (SEP).
Harlen, Wynne, (2010), «Principles and big ideas of science education», Great Britain, Association for
Science Education.
Heddy, Benjamin C., Sinatra, Gale M. (2013), «Transforming Misconceptions: Using Transformative
Experience to Promote Positive Affect and Conceptual Change in Students Learning About
Biological Evolution», Science Education 97(5), 723-744.
Holbrook, Jack, Miia Rannikmae (2009), «The Meaning of Scientific Literacy», International Journal of
Environmental and Science Education, 4(3) 275-288.
Kennedy, John, Frances Quinn, Neil Taylor, (2016), «The school science attitude survey: a new
instrument for measuring attitudes towards school science», International Journal of Research &
Method in Education. doi:10.1080/1743727X.2016.1160046.
Martín, Mariano, (2006), «Conocer, manejar, valorar, participar: los fines de una educación para la
ciudadanía», Revista Iberoamericana de Educación (42) 69-84.
Secretaría de Educación del Distrito, (2014), «Currículo para la Excelencia Académica y la Formación
Integral 40X40. Orientaciones para el área de Ciencias Naturales», Bogotá.
Sinatra, Gale M., Sarak. Brem, Evans, Margaret, (2008), «Changing Minds? Implications of
Conceptual Change for Teaching and Learning about Biological Evolution. Evolution: Education
and Outreach», 1 (2), 189-195.
Tamayo, Oscar, Orrego, Mary, (2005), «Aportes de la naturaleza de la ciencia y del contenido
pedagógico del conocimiento para el campo conceptual de la educación en ciencias» Revista
Educación y Pedagogía 17 (43), 13-25.
Universidad de Indiana, (2015), «Science Knowledge Survey Introduction» Science Knowledge Survey.
Último acceso: 10 de 2016. http://www.indiana.edu/~ensiweb/lessons/Sci.Know.Surv7.pdf.
Zeilik, Michael, (s.f.) «Field-tested Learning Assessment Guide», Tools – Survey of Attitudes Toward
Astronomy (Pre-test). Último acceso: 10 de 2016.
http://www.flaguide.org/tools/attitude/astpr.php.
LA NANORROBÓTICA EN EL MARCO DE LA INVESTIGACIÓN E
INNOVACIÓN RESPONSABLES
L
1.
nanotecnología y tiene como objetivo principal construir máquinas que puedan
manipular la materia a escala nanométrica. Los rangos dimensionales con las
que trabaja la nanotecnología oscilan entre 1 y 100 nm, siendo 1 nm la billonésima
parte de 1 m. Es decir, los nanorrobots son máquinas que trabajan a escala molecular
y que realizan operaciones similares a las de los robots de escala humana. Por ello, de
igual manera que un robot, un nanorrobot demanda el diseño de sus componentes y el
control del ensamblaje de sus piezas, ya que el correcto funcionamiento de la máquina
depende del movimiento relativo y autocontrolado de sus partes como respuesta al
acoplamiento de una fuente externa de energía. Sin embargo, el desarrollo de
nanorrobots es más complejo que el de los robots de escala macro puesto que en la
nanoescala las propiedades físicas de la materia varían de forma que siempre existirá
una barrera insalvable en el conocimiento de sus magnitudes físicas y una
aproximación probabilística a su comportamiento. Sus componentes nanoescalares
requieren la invención de nuevas técnicas de manipulación de la materia, y no solo
eso, debe además ser capaz de responder de modo eficiente a las fluctuaciones
térmicas que provocarían un movimiento aleatorio y descontrolado, es decir,
browniano, de sus componentes (Ramström 2016).
De forma consensuada, se podría decir que existen unas características comunes
deseables para cualquier ingenio nanorrobótico. Estaríamos hablando de un tipo de
inteligencia descentralizada, abierta a un comportamiento cooperativo, con capacidad
de reproducción y ensamblaje autónomo, capacidad de procesamiento de información
a escala nano y programabilidad, así como de la posesión de un interfaz de
comunicación entre los mundos nanoscópico y macroscópico (Ummat et al. 2006).
Actualmente, ante la dificultad de crear nanorrobots con componentes
absolutamente artificiales, se aprovechan partes de moléculas biológicas o inorgánicas
como piezas para las nanomáquinas, replicando el modo de hacer de la propia
naturaleza (Weir et al. 2005). Usualmente estas máquinas moleculares toman como
patrón algunos tipos de proteínas o el ADN. La principal ventaja de estos componentes
naturales es su probada eficacia y su confiabilidad, pudiendo funcionar como motores,
engranajes, levas, sensores, elementos de transmisión de fuerzas o soportes
estructurales. En general, sus recursos les permitirían actuar como elementos para
aplicar fuerzas, transportar materiales, vigilar o controlar procesos naturales,
siempre todo ello a escala nanoscópica. Las aplicaciones son numerosas, desde la
medicina y la biología (Unciti-Broceta 2015), hasta la medición de parámetros
medioambientales, o la industria textil, militar y aeroespacial. Es especialmente
interesante y exitosa la aplicación a la industria médica; reparación de células,
destrucción de tumores o inoculación de cantidades precisas de fármacos a nivel
intracelular, son algunas de las áreas de investigación activa en nanomedicina.
Una tecnociencia emergente como es la nanorrobótica promete novedad radical y
un potencial «revolucionario» para el crecimiento económico, para resolver los graves
problemas globales del presente y, en definitiva, para fomentar el progreso social.
Pero, estas mismas grandes posibilidades para la innovación son también la fuente de
riesgos heterogéneos, poco o nada conocidos (Beck 1998). Ello suscita preocupaciones
y dilemas éticos que deben ser adecuadamente afrontados. La incertidumbre sobre las
posibles consecuencias –tanto negativas como positivas– creadas por su uso extensivo
requiere destacar la intensificación de los problemas relacionados con el control
social y la evaluación responsable sobre los poderes que esta tecnología genera. El
ámbito médico es el que más inquietud suscita y, en especial, la utilización en él de
nanorrobots. En ese sentido, se pone en cuestión el uso de esta tecnología, sin
previamente haber recolectado un conocimiento suficiente acerca de, por ejemplo, su
potencial de toxicidad y sus efectos negativos sobre el sistema inmunológico.
5. EN CONCLUSIÓN
La investigación e innovación responsables se entiende así como una «fuerza
social positiva» en lugar de buscar solamente el desarrollo de productos que podrían,
en última instancia, no cumplir con las necesidades sociales esenciales (Groves et al.
549).
En definitiva, la investigación e innovación responsables se propone como un
amplio proyecto estratégico para gestionar la investigación científica y la innovación
en las sociedades modernas. Determinar las acciones adecuadas será el resultado del
proceso participativo y no el punto de partida. Se trata en suma, de que los
ciudadanos podamos influir de forma efectiva en las políticas tecnológicas y los
patrones de la innovación.
6. REFERENCIAS BIBLIOGRÁFICAS
Beck, Ulrich (1998), World Risk Society, Cambridge, Polity Press.
Capon, Adam, Gillespie, James, Rolfe, Margaret, Smith, Wayne (2015), «Perceptions of risk from
nanotechnologies and trust in stakeholders: a cross sectional study of public, academic,
government and business attitudes», BMC Public Health (15), 424
Groves, Chris, Frater, Lori, Lee, Robert, Stokes, Elen (2011), «Is There Room at the Bottom for CSR?
Corporate Social Responsibility and Nanotechnology in the UK», Journal of Business Ethics (101),
525-552
Hottois, Gilbert (1991), El paradigma bioético, una ética para la tecnociencia, Barcelona, Anthropos.
Jonas, Hans (1995), El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica,
Barcelona, Herder.
Ramström, Olof (2016), Molecular machines, Scientific background on the Nobel Prize in Chemistry
2016, The Royal Swedish Academy of Sciences, Estocolmo.
Ummat, A., Dubey, A., Sharma, G., Mavroidis, C. (2006), «Bio-Nano-Robotics : State of the Art and
Future Challenges», en Yarmush, M. L. (eds.) Tissue Engineering and Artificial Organs, The
Biomedical Engineering Handbook, CRC Press, 19-1 – 19-33.
Unciti-Broceta, Asier (2015), «Bioorthogonal catalysis: Rise of the nanobots», Nature Chemistry 7(7),
538-539.
von Schomberg, René (ed.) (2011), Towards Responsible Research and Innovation in the Information and
Communication Technologies and Security Technologies Fields, European Commission, Luxembourg,
Publications Office of the European Union.
Weir, Nathan A., Sierra, Dannelle P., Jones, James F. (2005), «A Review of Research in the Field of
Nanorobotics», Sandia Report, Office of Scientific and Technical Information, US Department of
Energy.
[1] Este es el problema que plantea el llamado «Dilema de Collingridge». Es un dilema metodológico
sobre el diagnóstico y evaluación de tecnologías, que alude al conflicto entre dos fenómenos: a) los impactos
de las nuevas tecnologías no se pueden predecir hasta que no se encuentran bien desarrolladas y han sido
ampliamente utilizadas (problema de la información); y, b) es difícil controlar a las tecnologías cuando ya se
encuentran profundamente arraigadas (problema del poder).
[2]Usamos el acrónimo en inglés RRI (Responsible Research and Innovation) porque es el más utilizado.
UNIVERSIDADES PÚBLICAS Y DIVULGACIÓN CIENTÍFICA: ANÁLISIS DE
LAS UNIDADES DE CULTURA CIENTÍFICA E INNOVACIÓN
(1) Departamento de Humanidades, Universidade da Coruña, Esteiro, 15471 Ferrol, A Coruña, España
gabriela.ojeda@udc.es
(2) Departamento de Humanidades, Universidade da Coruña, Esteiro, 15471 Ferrol, A Coruña, España
viviana.fernandez@udc.es
RESUMEN: Se presentan los resultados parciales de una investigación que tiene por objeto analizar la actividad
de las Unidades de Cultura Científica e Innovación (UCC+i) de las universidades públicas españolas. La FECYT las
clasifica en función de las iniciativas organizadas en cuatro áreas siendo una de ellas las que realizan divulgación
general del conocimiento científico y tecnológico, tema en el que se centra el trabajo. Se utiliza como método el
análisis de las páginas webs de las 17 universidades que integran la muestra. Para evaluar la actividad de las
unidades se elabora un indicador de actividad y también se analiza su visibilidad. Con relación a la actividad de las
UCC+i se extrae que no existe una relación de causalidad entre los años de antigüedad y el nivel de actividad de las
mismas. Un elemento importante derivado de la metodología usada es que una comunicación insuficiente de las
actuaciones de estas unidades en los sitios webs incide de forma negativa en la valoración de sus resultados. Se
verifica que la información disponible en las webs de las unidades no está adecuadamente organizada, actualizada
ni es completa. Este hecho afecta la visibilidad y la puesta en valor del trabajo de las UCC+i.
Palabras clave: Cultura científica; Universidades; Unidades de Cultura Científica e Innovación; Análisis sitios
webs; Indicadores de evaluación.
1. INTRODUCCIÓN Y OBJETIVOS
Las universidades no sólo forman a los futuros profesionales sino que generan conocimiento y por
ello debe ser parte de este proceso transmitir los resultados de su investigación a la sociedad en su
conjunto, sin limitarse a la difusión dentro del entorno académico (Ferrando González y Tigeras
Sánchez 2015). En este sentido los Research Councils UK (2017) destacan que «involucrar al público con
la investigación ayuda a conferir poder a las personas, ampliar su actitud y asegurar que el trabajo de
las universidades e institutos de investigación sea relevante para la sociedad en sí y para las
problemáticas sociales». Sin embargo, la divulgación científica ha sido una actividad de incorporación
tardía en las universidades españolas pudiéndose identificar su momento de despegue ya dentro del
presente siglo. Tras la convocatoria de ayudas publicada por la Fundación Española para la Ciencia y la
Tecnología (FECYT) para la realización de actividades de fomento de la cultura científica, tecnológica y
de la innovación en 2007 (Comisión Interministerial de Ciencia y Tecnología 2008 47), la promoción de
la cultura científica ha cobrado fuerza en el sistema universitario a través de las Unidades de Cultura
Científica y de la Innovación (UCC+i), que actualmente conforman la Red de UCC+i. Diez años después
de la puesta en marcha de estas unidades, los análisis de su progreso (Fundación Española para la
Ciencia y la Tecnología [FECYT] 2015; Lázaro Real 2016; Parejo Cuéllar, Martín Pena y Vivas Moreno
2017) son escasos existiendo la necesidad de ahondar en el trabajo que han realizado durante estos
años.
Una de las clasificaciones que propone la FECYT para las UCC+i atiende a las funciones asumidas
por estas (FECYT 2012). En base a esta distinción, el presente estudio se centrará en la línea referida a
la divulgación general del conocimiento científico y tecnológico por ser una de las que se implican y se
proyectan en la sociedad de forma más directa. Así el objetivo principal de esta investigación consiste
en estimar los resultados obtenidos hasta el momento por las UCC+i de las universidades públicas
españolas utilizando como metodología el estudio el análisis de sus páginas web. Se valorará tanto las
iniciativas de divulgación (American Association for the Advancement of Science 2016; National Co
ordinating Centre for Public Engagement 2017), también llamadas actividades de cultura científica, en
sí mismas como la facilidad para encontrar en los sitios webs y la información contenida en estos sobre
dichas actividades. La evaluación conjunta de las actuaciones de las UCC+i permitirá avanzar en una
valoración cualitativa de su funcionamiento. El objetivo último de esta investigación es destacar
aquellos aspectos susceptibles de mejora y que ello abra una vía para articular medidas
complementarias a las estrategias vigentes que posibiliten un incremento de su efectividad
aumentando el impacto de las iniciativas en la sociedad.
Tipo de iniciativa
Se clasificaron las iniciativas en Macro o Normales, y estas últimas en Múltiples o Aisladas. Las
iniciativas macro se desarrollan en un periodo corto de tiempo e incluyen diversas actividades
diseñadas específicamente para ese evento/s. Estas iniciativas pueden ser organizadas por una sola
universidad o bien pueden ser replicadas por parte de otras entidades a nivel local, nacional o incluso
internacional. Dentro de esta categoría se incluyeron eventos como la Semana de la ciencia, La noche de
los investigadores o los Campus científicos de verano.
Las iniciativas normales se corresponden con acciones individuales y distintas al resto
(denominadas aisladas) o bien con grupos de actividades que forman un conjunto pero no cumplen los
parámetros establecidos para las macro (múltiples). Tienen que estar planteadas desde la UCC como
parte de un mismo proyecto y tener un formato similar; son actividades muy parecidas que se repiten
X número de veces o bien una misma actividad que se repite varias veces.
Se contabilizaron todas las iniciativas volcadas en la página web que se hubiesen llevado a cabo
hasta la fecha de consulta. Aquellas iniciativas que se mencionaban pero de las que no se daban datos
específicos, se consideraron actividades únicas (aisladas) y sin repetición. A cada tipo de iniciativa se le
otorgó un valor determinado:
– Iniciativa normal aislada: 1 punto.
– Iniciativa normal múltiple: De 2 a 5 actividades se le otorgaron 1,5 puntos; de 6 a 10, 2 puntos; de 11
a 20, 3 puntos; de 21 a 40,4 puntos; y más de 41, 5 puntos.
actividades organizadas por la unidad más el n.º total de actividades organizadas divido por los Años de
actividad de la UCC+i:
Se tomó como punto de partida el primer año en el que se hubiesen organizado al menos tres
iniciativas distintas que estuviesen registradas en la web ya que, independientemente de que se
indique el año de creación de la unidad, no se puede asegurar que aborden la línea de Divulgación
general del conocimiento científico y tecnológico desde ese momento. El 2017, al contabilizarse las acciones
que ya están en curso o ya realizadas, se consideró como medio año (0,5).
La muestra del estudio se seleccionó en base de UCC+i con acreditación de la FECYT
(https://www.fecyt.es/es/info/que-son), se eliminaron aquellas que no correspondiesen a
universidades públicas resultando un total de 31 universidades. Posteriormente se eliminaron las que
no abordaban la línea de divulgación. Se seleccionó una universidad por provincia en aquellas en las
que más de una de las instituciones cumplía dichas características. Finalmente se reunió una muestra
de 17 unidades a estudiar. Se creó una ficha con los aspectos a analizar y se procedió a su aplicación
revisando las páginas web de las UCC+i seleccionadas en el periodo comprendido entre el 15 de mayo y
el 27 de junio del 2017.
3. RESULTADOS Y DISCUSIÓN
Respecto a la primera parte del estudio, se ha percibido una inconsistencia en la denominación de
las unidades: 7 de las 17 unidades estudiadas tenían un nombre que no correspondía con el estándar
«Unidad de Cultura Científica e Innovación». Un ejemplo es la Universidad de Extremadura con su
«Servicio de Difusión de la Cultura Científica» o la Universitat de Barcelona con la «La UB Divulga». Si
bien esto no afecta al trabajo que desarrollan las unidades de forma directa, sí que tiene implicaciones
en cuanto a la identificación de la unidad como UCC+i. A su vez, cabe destacar que sería adecuada una
unificación de este aspecto de cara a la consolidación de las mismas como elementos necesarios de los
agentes generadores de contenido (las universidades, los centros públicos de investigación, los centros
de innovación de las empresas) del sistema de ciencia, tecnología e innovación español.
En cuanto a la presencia en la web de la propia universidad, son escasas las unidades que tiene un
enlace directo desde la página principal. Por lo general, existen enlaces a las UCC+i desde los apartados
correspondientes a «Servicios», «Comunicación» o «Investigación». Ha habido también algunos casos
en los que ha sido muy problemático localizar el sitio web de la UCC+i. En la Universitat de Barcelona,
la Universidad de Granada o la Universidad de Salamanca, por ejemplo, ha sido necesario introducir la
fórmula [UCC+i + Universidad …] en un buscador generalista (Google). Esto disminuye
considerablemente la visibilidad de la UCC+i dificultando el acceso a la información disponible.
Otra particularidad observada que también obstaculiza ese acceso a la información y reduce la
visibilidad consiste en la existencia de dos sitios webs para una misma UCC+i. En la Universitat de
Girona y la Universidad de Cantabria se han detectado dos estructuras diferentes con funciones
similares y sitios webs distintos entre los que se reparte la información relacionada a las acciones de
divulgación de la universidad. Así en la Universitat de Girona se verifica la existencia de una «Unitat de
Cultura Científica i d’Innovació» y una «Càtedra de Cultura Científica i Comunicació Digital»; por su
parte, en la Universidad de Cantabria se localizó una «Unidad de Cultura Científica» y un «Campus
Cultural» que aborda la divulgación científica. En ambos casos parecía existir una estructura más
oficial que la otra, pero todas estaban adscritas a la universidad correspondiente sin quedar clara la
relación entre ambas.
Una vez dentro de las páginas webs de las UCC+i, se ha valorado la facilidad a la hora de encontrar
la información referida a las iniciativas de cultura científicas. A pesar de que en las páginas analizadas
se han encontrado apartados específicos con el listado de actividades, que la información estuviese
ordenada no implica que estuviese completa. Se ha observado que más de la mitad de las UCC+i no han
volcado completamente los datos de las iniciativas en las páginas web, apreciándose considerables
lagunas. Se han detectado páginas que mencionaban actividades realizadas pero de las que no se daba
ninguna otra información y otras en las que se ponía a disposición del usuario el plan de divulgación
anual pero no se podía comprobar que efectivamente esas actividades se hubiesen realizado. En otras
ocasiones, no era evidente quién organizaba la actividad, si era la propia UCC+i o si estaba publicitando
una actividad en la que no tenía participación. Cabe mencionar, que aquellas unidades que sí ofrecían
una información completa y detallada solían tener disponible para consulta los materiales generados
por esas actividades e incluso los programas o folletos utilizados para promocionarlas.
Para la valoración cuantitativa de la actividad de las UCC+i en cuanto a iniciativas de divulgación,
perteneciente a la segunda parte del estudio, se ha calculado el coeficiente para todas las acciones de
cultura científica organizadas y posteriormente se ha calculado el IADUCC+i para cada unidad [Tabla 1].
Universidad
http://proyeccioninvestigacion.uca.es/cultura-cientifica/https://culturacientificablog.wordpress.com/ 4,5 47 17,2 14,26
de Cádiz
Universidad
de Jaén http://www10.ujaen.es/conocenos/servicios-unidades/ucc 8,5 64 26,5
10,64
de
Universidad
Cantabria http://web.unican.es/campuscultural/ciencias-Y-Nuevas-Tecnologias
cientifica/actividades http://web.unican.es/unidades/cultura
8,5 50 19,95 8,22
de
Universidad
Barcelona
http://www.ub.edu/laubdivulga/ 5,5 21 17,4 6,98
Universidad
de Burgos
http://www.ubu.es/divulgacion-cientifica-ucci-ubu 2,5 9 8,05 6,82
Universidad
Salamanca
de http://culturacientifica.usal.es/ 5,5 28 8,95 6,71
Universidad
Extremadura
de http://culturacientifica.unex.es/ 5,5 16 19,4 6,43
Universidad
de Granada
http://canal.ugr.es/ 2,5 8 5,35 5,34
Universitat
de Girona http://www2.udg.edu/larecerca/UdGComunicaci%C3%B3cient%C3%ADfica/Presentaci%C3%B3/tabid/18079/language/ca-
ES/Default.aspx http://c4d.udg.edu/blog/c4d/ 6,5 13 16,5
4,53
Universidad
de Málaga http://www.uciencia.uma.es/ https://www.uma.es/servicio-publicaciones-y-divulgacion-cientifica/ 7,5 14 16,75
4,1
Universidad
Pública
Navarrade http://www.unavarra.es/unidadculturacientifica/ 8,5 11 8,8 2,32
Universidad
Politécnica
de Madrid http://www.upm.es/Investigacion/innovacion/OTRI/UnidadCulturaCientifica 7,5 7 10,05 2,27
Elaboración propia.
Tal y como se aprecia en la tabla, las cuatro primeras posiciones corresponden a aquellas unidades
que han llevado a cabo el mayor número de actividades diferentes y que a su vez, las sumatorias de los
coeficientes de las iniciativas son también los valores más altos. Si bien las Universidades de Jaén,
Cantabria y Oviedo suman entre 7 y 8 años de actividad, cabe destacar que la Universidad de Cádiz con
sólo 4 años de antigüedad ha conseguido el valor más alto [Figura 1]. Hay que tener en cuenta que gran
parte de las unidades se dedican también a otras líneas de trabajo como la formación en divulgación,
las cuales, en algunos casos, predominan frente a la línea de divulgación como sucede en la
Universidad de Zaragoza.
Elaboración propia.
La disponibilidad de la información sobre las actividades de divulgación en las páginas web de las
UCC+i ha afectado a esta segunda parte del estudio. La ausencia de datos ha dificultado el cálculo del
indicador y el resultado obtenido es más un reflejo de esta situación que de la actividad real de las
unidades.
Los resultados obtenidos con este estudio ofrecen una visión general del trabajo que se está llevado
a cabo desde las UCC+i pero no son suficientes para formular medidas complementarias que potencien
sus actuaciones. Sin embargo, se cree que el indicador desarrollado tiene potencial para ser aplicado
en futuros estudios donde, con un método de recolección de datos que evite este tipo de sesgos y la
incorporación de elementos como la financiación de la que disponen las UCC+i o el personal con el que
cuentan, podría retratar el esfuerzo realizado por las unidades con más precisión.
4. REFERENCIAS BIBLIOGRÁFICAS
American Association for the Advancement of Science (2016), Theory of Change for Public Engagement with Science.
https://mcmprodaaas.s3.amazonaws.com/s3fs-public/content_files/2016-09-15_PES_Theory-of-Change-for-
Public-Engagement-with-Science_Final.pdf
ESPAÑA. Comisión Interministerial de Ciencia y Tecnología (2008), Actividades en Investigación, Desarrollo e Innovación
Tecnológica. Programa de trabajo, ISBN 978-84-691-1179-6.
http://www.idi.mineco.gob.es/stfls/MICINN/Investigacion/FICHEROS/PROGRAMA_DE_TRABAJO_2008.pdf
Ferrando González, Laura y Tigeras Sánchez, Pilar (2015), «Cultura científica, cultura democrática», Quaderns de la
Fundació Dr. Antoni Esteve. El científico ante los medios de comunicación. Retos y herramientas para una cooperación
fructífera, 28,85-95.
Fundación Española para la Ciencia y la Tecnología (2012), Libro blanco de las unidades de cultura científica y de innovación
UCC+i. https://www.fecyt.es/es/node/2159/pdf-viewer
Fundación Española para la Ciencia y la Tecnología (2015), UCC+i: origen y evolución (2007–2014).
https://www.fecyt.es/es/node/3271/pdf-viewer
Lázaro Real, Elena (2016, Diciembre 12), «Comunicar ciencia desde la universidad: del voluntarismo a la
profesionalización de las unidades de cultura científica», Blog de la Asociación Española de Comunicación Científica.
http://www.aecomunicacioncientifica.org/comunicar-ciencia-desde-la-universidad-del-voluntarismo-a-la
profesionalizacion-de-las-unidades-de-cultura-cientifica/
National Co-ordinating Centre for Public Engagement [NCCPE] (2017), What is public engagement?.
Https://www.publicengagement.ac.uk/explore-it/what-public-engagement
Research Councils UK [RUCK] (2017), RCUK Public Engagement. Recuperado de Http://www.rcuk.ac.uk/pe/
Parejo Cuéllar, Macarena, Martín Pena, Daniel, y Vivas Moreno, Agustín (2017), La divulgación científica: Estructuras y
prácticas en las universidades, 1.º edición Barcelona, Editorial Gedisa S.A. eISBN: 978-84-9784-314-0.
LA RELEVANCIA DE LOS BIENESCOMUNES
EN LAS TECNOLOGÍAS ENTRAÑABLES
1. INTRODUCCIÓN
L a posibilidad de decidir sobre los bienes comunes es lo que permite
plantea «la paradoja
diferenciarlos de los de
bienes
que privativos
individualmente
y los bienes públicos. Ostrom (1990)
podemos actuar racionalmente,
pero cuyo resultado colectivo es un comportamiento irracional» Sin embargo, se
puede observar que el comportamiento de conjunto podría ser irracional o ruinoso
asociado a algo que puede considerarse común, pero también a algo que puede
considerarse público. Diferenciaremos entre bienes comunes y bienes públicos dado
que hay diferencias en las condiciones de propiedad y acceso.
Lo que puede apropiarse, o no, y el tipo de acceso que tengamos a ello, depende en
buena medida de algún ordenamiento jurídico-institucional. Es decir, que lo público
«regula» (define, otorga el status) qué bienes quedan en el dominio privado y cuáles
pueden considerarse bienes comunes dentro de una jurisdicción, por ejemplo un País.
También hay algún acuerdo en «proteger» los derechos de explotación de una
invención en forma privada como también existe el software libre. La lucha por evitar
la «privatización del conocimiento» se relaciona con este problema. Por lo tanto, aun
sin contar con límites tajantes o fijos entre la tipificación que hagamos de los distintos
bienes, hay referencias y ejemplos que permiten identificar, y discutir
posteriormente, qué cosas podrían quedar bajo el dominio privado, público o
comunitario.
2. RECONOCIENDO A LOS BIENES COMUNES
El ejercicio de reconocimiento de lo que podemos asociar con bienes comunes
implica el replanteo de nuestra relación con todo aquello que es objeto de
transformación en las actividades de diseño y producción de las distintas tecnologías.
Esto es la consideración de nuestro entorno como un «recurso», que es una idea
derivada de la posición clásica del hombre como dominador de la naturaleza. El
sentido del dominio en una versión cuasi-optimista puede resumirse en la frase:
Mientras el animal, por ser atécnico, tiene que arreglárselas con lo que encuentra dado ahí y
fastidiarse o morir cuando no encuentra lo que necesita, el hombre, merced a su don técnico,
hace que se encuentre siempre en su derredor lo que ha menester – crea, pues, una
circunstancia nueva más favorable, segrega, por decirlo así una sobrenaturaleza adaptando la
naturaleza a sus necesidades. La técnica es lo contrario de la adaptación del sujeto al medio.
(Ortega y Gasset, 1939, 35-36)
¿Qué necesidades se resuelven, con qué componentes de la sobrenaturaleza, y
adaptando la naturaleza de qué modo hacia ese fin? Si nos mantenemos dentro del
pensamiento de Ortega, las necesidades «objetivamente superfluas» (las que
posibilitan el «bienestar» y no el simple «estar» en el mundo) son variables, y
finalmente dependen de nuestros supuestos culturales. (Ortega y Gasset 1939, 38-43)
Uno de los problemas que dan inicio a la incorporación de los bienes comunes
dentro de cualquier evaluación de desarrollo tecnológico, es el modo en que
adaptamos la naturaleza a nuestras necesidades; y la posibilidad de evaluar también
para cuáles necesidades hacemos cierta explotación de «recursos». En este sentido,
desde una mirada menos optimista, la relación entre medios y fines, entre «recursos»
y necesidades puede resumirse así:
En la misma medida en que se han vuelto sutiles los cálculos del hombre respecto a los
medios, se volvió también torpe su elección de fines, elección que en otro tiempo guardaba
relación recíproca con la fe en la verdad objetiva; el individuo, depurado respecto a todo
residuo de mitología, incluso de la mitología de la razón objetiva, reacciona
automáticamente, conformándose a los modelos generales de la adaptación. Las fuerzas
económicas y sociales adoptan el carácter de ciegas fuerzas de la naturaleza a las que el
hombre, a fin de preservarse, debe dominar mediante la adaptación a ellas. Como resultado
final del proceso tenemos, por un lado, el yo, el ego abstracto, vaciado de toda substancia
salvo de su intento de convertir todo lo que existe en el cielo y sobre la tierra en medio para
su preservación y, por otro, una naturaleza huera, degradada a mero material, mera
substancia que debe ser dominada sin otra finalidad que la del dominio. (Horkheimer 1973,
107)
Entre ambas frases, podemos reconocer dos etapas: adaptamos la naturaleza a
nuestras necesidades a través de la técnica, y luego realizamos nuestra adaptación a
ella y el dominio de la naturaleza por el dominio mismo. En el proceso completo,
parece imponerse en la relación naturaleza-técnica algún criterio que permita
discernir entre modos de operar sobre los medios que utilizamos para el logro de
determinados fines; además de justificar ciertas necesidades en función del estado de
algunos medios o «recursos» como parte fundamental de nuestro entorno vital. Si nos
ocupamos del estado de nuestro entorno, y dejamos, al menos parcialmente de lado, la
idea de dominación sobre la naturaleza para entendernos dentro de un todo orgánico,
reconoceremos que parte de ese entorno no puede ser considerado como un simple
«recurso», y por lo tanto no puede ser apropiado ni explotado libremente.
Actualmente la propuesta de incorporar una tercera categoría como los commons
parece ser una vía más adecuada para el análisis de algunos aspectos clave del
desarrollo tecnológico. Según Zamagni la solución a la tragedia de los commons es la de
los bienes comunes o comunitarios, luego de explicar por qué la privatización o la
estatización no es adecuada:
… la transformación de los commons en commodities, favorecida por las privatizaciones, no
puede dar suficientes respuestas a la tragedia de los commons– prescindiendo de la presencia
mayor o menor de autoridades públicas de control del tipo antitrust o similares.
[…]
¿Qué decir de la solución diametralmente opuesta, esto es, de la estatización? Es necesario
reconocer que el camino de la estatización tampoco es adecuado, porque transformaría un
bien común en un bien público, tergiversando su naturaleza específica.
[…]
logramos comprender por qué la solución comunitaria es la que ofrece las mayores chances
para salir de la tragedia de los commons. La idea básica –explorada por primera vez de modo
riguroso por Elinor Ostrom (Premio Nobel de Economía 2009) en su influyente libro de 1990,
Governing the Commons– es la de poner en uso las energías, que existen y son enormes, de la
sociedad civil organizada para encontrar formas inéditas de gestión comunitarias. En otras
palabras, el modelo de gestión debe ser congruente con la naturaleza propia del bien del cual
se trata: si este es un bien común, también su gestión debe serlo. (Zamagni 2014, 30-33)
Para la Economía del Don, un bien privado tiene (al menos teóricamente)
sustitutos (más o menos perfectos) y presupone la posibilidad de elegir otros bienes y
existe libertad de elección en la oferta y en la demanda. Un bien es público cuando no
es exclusivo ni rival en el consumo; por ello es un bien cuyo acceso está asegurado a
todos, pero cuyo uso por parte del individuo es independiente del uso que le den los
demás». El bien común «es un bien rival en el consumo pero no exclusivo, y además es
aquel en que la utilidad que cada uno obtiene de su uso no puede ser separada de la
utilidad que otras personas obtienen de ella» (Zamagni 2014, 26).
Así, podemos considerar commons al aire, el agua o la biodiversidad, como casos
más bien evidentes, pero también podemos extender este listado no solamente a cosas
que relacionamos directamente con la naturaleza, sino también a construcciones
sociales.
Lafuente (2007) ha propuesto cuatro entornos (el cuerpo, el medioambiente, la
ciudad y el entorno digital) en los que identifica una serie de commons como el no
enajenamiento, los tejidos, los datos clínicos, la expresividad, el conocimiento, la
lengua, los ciberderechos, entre muchos otros. Por lo tanto no hablamos solamente
del aire o el agua, sino también de construcciones sociales o comunitarias, e incluso de
nuestro propio cuerpo.
En términos de propiedad y acceso es posible plantear que un bien privado es de
propiedad restrictiva y de acceso exclusivo a través de un mercado. La propiedad de
un bien público es compartida pero no de todos, sino de los organizados bajo una
forma jurídica, como una autopista para los ciudadanos de un país. El acceso a un bien
público depende de las condiciones institucionales y puede ser más inclusivo para un
grupo de ciudadanos. Los bienes comunes, en cambio, son bienes que no pueden ser
apropiados y por lo tanto no pueden tener restricciones en ese sentido, y el acceso
debe ser comunitario, o al menos decidido comunitariamente.
A su vez, los bienes comunes se encuentran asociados a todo desarrollo
tecnológico en un gran entramado de relaciones materiales e informacionales
compuesto por lo que consideramos recursos, residuos, artefactos, etc. Por lo tanto,
«si no podemos decidir sobre cómo afectamos a los bienes comunes, nos encontramos
con otro factor de alienación» (Parselis 2016, 170)
Los sistemas de innovación vistos en conjunto, globalmente, en una inmensa red,
producen efectos sobre distintas entidades que pueden considerarse bienes comunes:
• los entramados de innovación involucran bienes comunes, y ninguna tecnología es
posible sin ellos (combustibles, metales, etc.);
• el diseño implica el anclaje de cada artefacto en algún entorno (hay decisiones
voluntarias sobre qué materiales utilizar y en qué cantidades), es necesario
identificar los bienes comunes como componentes de ellos, la composición final de
cualquier tecnología es decidida por agentes intencionales en el contexto de
diseño a través del anclaje, lo que fomentará que los entramados de innovación
involucren a unos bienes comunes más que otros (materiales alternativos por
ejemplo);
• el modo de propiedad que se defina para un artefacto puede ser privado, público,
pero también puede diseñarse bajo las características de un bien común, por lo
tanto es necesario observar qué contenido de bienes comunes tiene un producto
para intentar juzgar cuán razonable puede ser el régimen de propiedad que se
define en el diseño (el caso del agua embotellada es un buen ejemplo). (Parselis
2016, 171)
En síntesis, cualquiera sea la aproximación que tomemos sobre los commons,
vemos que una restricción conceptual para cualquier diseño tecnológico es el de la
posibilidad de apropiación y acceso a ciertos bienes. Esto implica que todo proyecto de
desarrollo tecnológico no alienante debe, además de otras condiciones, no ser fuente
de alienación con respecto a la propiedad y acceso de lo que consideramos como bien
común.
5. CONCLUSIONES
Hemos llegado por la vía de la justificación del espacio que consideramos deben
tener los commons dentro de las tecnologías entrañables, a un concepto muy similar al
del riesgo manufacturado. Sabemos que el futuro siempre es incierto y por lo tanto
intrínsecamente riesgoso. Giddens afirma que se suponía que el riesgo era una forma
de regular y dominar el futuro, y sin embargo esto no ha resultado así, forzándonos a
buscar formas diferentes de ligarlo a la incertidumbre. Su búsqueda resultó en dos
formas de riesgo: el riesgo externo proveniente de la tradición o de la naturaleza, y el
riesgo manufacturado creado por el impacto de nuestro conocimiento sobre el mundo
creando situaciones sobre las que tenemos muy poca experiencia histórica. Los riesgos
manufacturados para él se ligan directamente con la globalización, es decir, ante un
cambio en la escala de la observación. Si el riesgo manufacturado se extiende como la
globalización, los nuevos riesgos no están asociados a las fronteras de las naciones, ni
podemos ignorarlos como individuos (Giddens 2000)
El carácter teleológico de la producción de un sistema técnico no se presenta en el
entramado de desarrollo tecnológico global. Los nodos se encuentran en una
geografía, pero también son parte de procesos, y tienen contenido. La explotación
concreta de un recurso natural, por ejemplo, es un nodo, como lo es una planta de
producción, mientras que por sus relaciones circula materia e información. Parte
material de un recurso circula por el entramado hacia otros nodos de diseño y de
producción transformándose hasta llegar a otros nodos de consumo, a nodos de
usuarios, y finalmente a nodos de disposición final luego del descarte. Los nodos están
en alguna parte. Los enlaces entre nodos no se dan solamente con respecto a recursos
de un entorno, sino que también existen relaciones entre nodos de producción y uso.
La producción de ciertos insumos (barras de silicio, por ejemplo) están relacionados
con muchas industrias, como distintos nodos de comercialización, de sistemas
informáticos, entre muchos otros relacionan nodos heterogéneos. Si esto se entiende
como una red, el comportamiento global de esa red es una propiedad emergente, que
no tiene finalidad, que no ha sido diseñado.
Por lo tanto, en términos globales, compatible con la escala de los commons, no es
posible aceptar criterios que no identifiquen la posibilidad de comportamientos
irracionales y riesgosos. Si las tecnologías entrañables están llamadas a ser la guía
para un modelo de desarrollo tecnológico alternativo, los commons deben ser parte de
sus criterios.
6. REFERENCIAS BIBLIOGRÁFICAS
Giddens, Anthony (2000), «Globalización y Riesgo», en Un mundo desbocado. Los efectos de la
globalización en nuestras vidas, Madrid, Taurus, 19-48.
Horkheimer, Max (1973), Crítica de la Razón Instrumental, 2da edición, Buenos Aires, Editorial Sur.
Lafuente, Antonio (2007), «Los cuatro entornos del procomún», Cuadernos de Crítica de La Cultura, 15
22. http://digital.csic.es/handle/10261/2746.
Ortega y Gasset, José (1939), Meditación de la Técnica. 5ta edición. Madrid, Revista de Occidente 1977.
Ostrom, Elinor (1990), «Reflections on the Commons» en Governing the Commons.The evolution of
institutions for collective action, 20ma edición, Cambridge University Press, 1-28.
Parselis, Martín (2016), Las Tecnologías Entrañables como Marco para la Evaluación Tecnológica, Tesis de
doctorado. Universidad de Salamanca. http://gredos.usal.es
Quintanilla, Miguel Angel (2017), «Tecnologías Entrañables: un modelo alternativo de desarrollo
tecnológico», en Tecnologías entrañables ¿Es posible un modelo alternativo de desarrollo tecnológico?,
Madrid, Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura, 15
53.
Quintanilla, Miguel Angel (2009), «Tecnologías Entrañables», Publico.es.
http://blogs.publico.es/delconsejoeditorial/351/tecnologias-entranables/
Zamagni, Stefano (2014), Economía del Don. Perspectivas para Latinoamérica, (Groppa, Octavio &
Hoevel, Carlos, Editores), Buenos Aires, Ciudad Nueva.
1 Los criterios «intrínsecos» se refieren a propiedades técnicas (como la factibilidad, eficiencia,
fiabilidad), en tanto que los «extrínsecos» se refieren a valores económicos, sociales y culturales, como la
idoneidad o viabilidad económica de un proyecto, su valoración moral, estética, política, la evaluación de
riesgos e impacto ambiental. Tomados así se encuentran dentro de la lógica de desarrollo-impacto, cuando
en verdad buscamos incorporar todas las categorías desde un principio para el diseño de tecnologías más
humanas.
IBERCIVIS COMO CASO DE ESTUDIO
1. INTRODUCCIÓN
Habitualmente la expresión «ciencia ciudadana» suscita el debate acerca de su
significado y de la legitimidad de calificar de ese modo a determinadas prácticas. Esa
necesaria discusión acorde con la naturaleza evolutiva de las prácticas de ciencia
ciudadana no es el objetivo de esta comunicación, y utilizaré la expresión asumiendo
el sentido de la mayoría de las definiciones actuales. El Libro Blanco de la ciencia
ciudadana en Europa la explica como el involucramiento de la población en la
investigación científica, tanto a través de sus propios conocimientos o esfuerzo
intelectual como a través de dispositivos o herramientas propias (European Commission
2014, 8). Así pues, no me refiero aquí al acercamiento de la ciencia a la ciudadanía a
través de la divulgación científica sino a la misma participación de los ciudadanos en
el proceso científico y tecnológico.
Que la ciencia ciudadana es un fenómeno creciente en todo el mundo se refleja en
el aumento del número de personas implicadas y de proyectos junto al
correspondiente número creciente de publicaciones en las dos últimas décadas.
Haklay (2015, 12) ha explicado la convergencia de los muchos factores que han
favorecido en las últimas décadas el resurgimiento, adaptación y rápida evolución de
la ciencia ciudadana.
En esta comunicación avanzo una parte de una investigación en la que me
propongo comprender las motivaciones de los participantes en ciencia ciudadana,
pero no como una caracterización puramente descriptiva sino como una dilucidación
orientada a comprender qué motivaciones pueden ser más adecuadas para un objetivo
concreto y no poco ambicioso, a saber, lograr la constitución de lo común1. La
hipótesis subyacente es que la ciencia ciudadana es una potente oportunidad para la
constitución de lo común en el doble sentido que han explicado Laval y Dardot (2015)
y que yo adapto a la ciencia ciudadana: por un lado permite lograr una ciencia más
robusta como recurso de uso común, es decir, más duradera y accesible, y a la vez
hace posible constituir comunidades más corresponsables e inclusivas. Pero propongo
como hipótesis inseparable de la primera que ese doble logro está condicionado
radicalmente por las motivaciones de los distintos agentes implicados en la ciencia
ciudadana: usuarios, científicos, gestores, políticos. Mi propósito último es verificar
que algunas motivaciones favorecen la constitución de lo común, y entonces deberían
ser potenciadas desde los distintos ámbitos implicados.
Por tanto un objetivo instrumental es conocer esas diferentes motivaciones que,
conjeturo, condicionan el logro de la constitución de lo común. Y propongo las
encuestas y entrevistas también como medios de invitar a la reflexión y a la
deliberación acerca de las posibles motivaciones propias y ajenas, para extraer
consecuencias normativas y auto-normativas.
La realización de encuestas y entrevistas se presenta entonces como una tarea
futura imprescindible que requiere la necesaria prevención de habituales sesgos: por
ejemplo cuando las opciones disponibles para contestar determinadas preguntas no
reflejan la realidad particular del participante, o cuando algunas categorías se
presentan como excluyentes sin serlo. Esto último puede muy bien ocurrir en el caso
de la motivación, al tratarse de un concepto en buena parte subjetivo y no siempre
totalmente claro para los mismos interesados. Por tanto, un conocimiento indirecto
de las motivaciones favorecerá la adecuada formulación de las preguntas.
3. ANTECEDENTES
Como he dicho, considero la hipótesis de que la consecución del logro de una
ciencia más robusta y de comunidades más corresponsables a través de la ciencia
ciudadana dependerá de las motivaciones de los distintos agentes. Y es por eso que me
interesa el amplio capítulo de las motivaciones, no sólo de un modo meramente
descriptivo sino conducente a propuestas normativas.
Como marco teórico de mi hipótesis parto principalmente del trabajo de Elinor
Ostrom, Nobel de Economía en 2009 por sus estudios empíricos sobre los recursos de
uso común, así como de estudios sobre su obra y sobre el concepto de «lo común», en
particular en (Laval y Dardot 2015). Encuentro además antecedentes fundamentales
en MacIntyre (2001) y en Jonas (1979) respecto de la idea de la corresponsabilidad en
el espacio público asociada a la gestión del bien común, y en Alan Irwin (1995) por sus
conexiones entre la ciencia ciudadana y la corresponsabilidad por la sostenibilidad
ambiental. Algunos investigadores reclaman que la ciencia ciudadana debe ser más
inclusiva y orientada al bien común (Haklay en ECSA 2016), y la asocian a la cultura
del procomún incluyendo conceptos como ciencia abierta, economía del don, entre
otros (Lafuente, Alonso, Rodríguez 2013).
En su discurso de recepción del Nobel, Ostrom (2009) remite a muy diversos
estudios empíricos sobre los distintos escenarios en que los individuos implicados han
resuelto problemas de recursos de uso común mediante soluciones sostenibles en
largos periodos de tiempo: según sean las reglas institucionales acordadas se
fortalecen –o bien se debilitan– las capacidades para resolver problemas eficiente y
sosteniblemente. Explica también que, aunque aún no existe una teoría completa que
explique las razones del éxito, sí hay acuerdo en que construir confianza en el otro y
desarrollar determinadas reglas institucionales es de crucial importancia para la
solución de dilemas sociales. Añade que el sorprendente y repetido hallazgo de que los
usuarios de recursos en condiciones relativamente buenas se monitorizan unos a
otros está relacionado con el problema central de la construcción de la confianza. De
estos estudios concluye que los seres humanos tienen estructuras motivacionales más
complejas y mayor capacidad de resolver dilemas sociales que las propuestas por la
teoría de la «elección racional», por lo que el diseño de las instituciones basado en
alentar a los individuos a centrarse sólo en sí mismos para alcanzar mejores
resultados debería sustituirse por políticas públicas cuya meta fuera favorecer el
desarrollo de instituciones que alienten lo mejor de los seres humanos. En el prefacio
a la primera edición en español de El gobierno de los bienes comunes (Ostrom 2000, 12)
señala que en 1998, siendo ella presidenta de la Asociación Americana de Ciencia
Política, instó a la adopción de modelos de racionalidad completa, congruentes con la
biología y psicología evolucionistas, sobre la capacidad humana heredada para
aprender a usar la reciprocidad y las reglas sociales frente a los dilemas de la vida
diaria.
En cuanto a la ciencia ciudadana, de las cerca de 900 publicaciones analizadas por
Strezov y Follet (2015) sólo el 3% se dedican expresamente a las motivaciones de los
participantes. Hasta la fecha no he encontrado estudios que relacionen las
motivaciones de los agentes implicados en ciencia ciudadana con el concepto de lo
común.
Por lo que se refiere a Ibercivis, Actis y Ferrando (2009) han indicado algunas
motivaciones para participar cuando la institución estaba apenas recién iniciada y
sólo existían proyectos BOINC. Basándose en las manifestaciones de los usuarios en
blogs y foros proponen los siguientes motivos:
– El deseo de colaborar con investigaciones con utilidad social directa o relacionadas
con temas de gran interés mediático como uno de los principales factores de
atracción de voluntarios.
– La identificación con fórmulas cooperativas de producción y distribución del
conocimiento. La mayor parte de los impulsores de BOINC promueven la
computación voluntaria como un mecanismo directo y democrático para orientar
la dirección de la investigación científica.
– búsqueda de reconocimiento social. Se han creado competiciones individuales y
La
por equipos con el fin de certificar el tiempo destinado a la computación. Los
resultados se publican en diversas páginas de estadísticas (como BOINC-stats) y en
muchos casos los proyectos ofrecen premios como medio para alentar la
participación.
– La pertenencia a comunidades virtuales. Los proyectos más exitosos han
conseguido crear auténticas comunidades que otorgan identidad a sus miembros y
en cuyo interior se establecen relaciones personales.
4. METODOLOGÍA
Para llevar a cabo esta primera etapa de mi investigación –cuyo objetivo es
legitimar las hipótesis sobre posibles motivaciones– me he basado en tres tipos de
fuentes de información: 1) las manifestaciones de usuarios en foros y blogs, mensajes
desde medios de comunicación institucionales (web, correo electrónico, foros Zivis
Ayuntamiento de Zaragoza y CanalBOINC3) y generales (TV, prensa y RRSS a través de
noticias, entrevistas, y reportajes)2) los datos proporcionados anonimizados por la
Fundación Ibercivis: número de registros diarios de usuarios en los proyectos BOINC
junto a número de usuarios que aportaron crédito, así como identificadores
numéricos que permiten reconocer a usuarios reales, y 3) los datos publicados por
BOINC-stats sobre número de usuarios que generan crédito. No he utilizado todavía
ningún software de análisis cualitativo de la información aportada por usuarios,
científicos y gestores en los distintos medios de comunicación.
5. RESULTADOS
A la luz de la información disponible en medios de comunicación se pueden
proponer como hipótesis para las motivaciones de usuarios y promotores (científicos
y gestores) dos amplias categorías –competición y cooperación– que incluirían
algunas subcategorías.
COMPETICIÓN COOPERACIÓN
asociada a la diversión y al desafío tecnológico que genera entusiasmo en la participación y emociones positivas
comunidad
que genera conciencia
y genera compromiso
de pertenencia a un equipo o que genera conciencia de pertenencia a un equipo o comunidad y genera
compromiso
Fig.1 Tasa de variación del número de usuarios del 29 de junio de 2008 al 29 de marzo de
2014
Fig.2 Tasa de variación del número de usuarios del 20 de junio de 2008 al 29 de marzo de
2014
Elaboración propia a partir de datos de Ibercivis.
Los datos no apoyan una hipótesis que en principio parece razonable: a los
usuarios de Ibercivis BOINC en principio les podría resultar más atractivo participar
en unos proyectos que en otros, por ejemplo en aquellos relacionados con
investigación médica, más que en los relacionados con problemas más alejados de la
realidad cotidiana como los proyectos sobre cables cuánticos o números primos. Hay
que decir que, al registrarse, los usuarios de Ibercivis BOINC participaban por defecto
en todos los proyectos salvo que explícitamente «deseleccionaran» alguno de ellos.
Sin embargo sí existe una cierta correlación entre el aumento del número de usuarios
y el lanzamiento de unos pocos proyectos: a) Adsorción (enero de 2009) cuando
todavía Ibercivis era de muy reciente creación b) Amiloide (29 julio 2009), Soluvel (22
febrero 2010) y Sanidad (27 junio 2011); tres subproyectos que pudieron incorporar
nuevos usuarios portugueses. Más que por los temas, parece plausible que fuera por
ser los primeros (y hasta la fecha) únicos proyectos de nuestro país vecino. Los
investigadores, sin respaldo institucional y atravesando el país un periodo de fuerte
crisis económica, realizaron una importante difusión en medios y en instituciones
educativas.
Algunas de las correlaciones más claras y notables están relacionadas con la
comunicación: correos institucionales a los usuarios los días 3 de junio 2008 y 27
septiembre 2008, noticias generales en TVE, prensa, y RRSS, particularmente el 20
junio de 2008 cuando se anunció el lanzamiento de Ibercivis, las competiciones con
premios en octubre 2008 y noviembre 2009, y el anuncio de la colaboración
institucional con Universidad San Jorge en febrero de 2013.
6. CONCLUSIONES
Los resultados obtenidos son útiles para legitimar casi todas las hipótesis de
partida que deberán ser confirmadas y/o refutadas a través de las necesarias
encuestas y entrevistas. Las hipótesis reforzadas son: influencia de medios de
comunicación, retroalimentación con investigadores y administradores de blogs y
foros, competitividad por la posición en rankings individuales y/o por equipos,
satisfacción ante el desafío tecnológico, reconocimiento social y premios, carácter
local de los proyectos, conciencia de cooperación y de corresponsabilidad. Se constata
el carácter no excluyente de algunas categorías confirmándose la necesidad de
extremar la precisión en la elaboración de cuestionarios. En cuanto a la hipótesis
debilitada: no se aprecia influencia del tema de investigación, aunque en el caso de
Ibercivis tal vez se deba al modo de registro indicado. Se obtiene además información
valiosa para potenciales proyectos BOINC; convendrá: implementar sistemas que
eviten el registro de falsos usuarios, detectar a usuarios registrados que no estén
generando crédito e informarles en su caso, enviar correos de información y/o
mantener información actualizada por parte de administradores de webs, blogs y
foros.
REFERENCIAS
Actis, Eduardo, Ferrando, Laura (2009), «Ibercivis: fomento de la cultura científica a través de la
computación voluntaria», Comunicación presentada en «Foro Iberoamericano de
Comunicación Científica», celebrado en Campinas (Brasil), 23-25, noviembre, 2009.
European Citizen Science Association. ECSA (2016), Book ofabstracts ECSA 2016.
Commission (EC). Socientize consortium (2014), White Paper on Citizen Science in Europe.
URL http://www.ecsa2016.eu/assets/book_of_abstracts_ecsa2016.pdf
European
URL: http://www.socientize.eu/?q=eu/content/white-paper-citizen-science
Follett Ria, Strezov, Vladimir (2015), «An Analysis of Citizen Science Based Research: Usage and
Publication Patterns», PLoS ONE 10(11), e0143687.
Haklay, Muki (2015), Citizen Science and Policy: A European Perspective,Washington, DC: Woodrow
Wilson International Center for Scholars.
Irwin, Alan (1995), Citizen Science: A Study of People, Expertise and Sustainable Development (Environment
and Society), London & New York, Routledge.
Jonas, Hans (1995), El principio de responsabilidad. Ensayo de una ética para la civilización tecnológica,
Barcelona, Herder.
Lafuente, Antonio, Alonso, Andoni, Rodríguez Joaquín (2013), ¡Todos sabios! Ciencia ciudadana y
conocimiento expandido, Madrid, Cátedra.
Laval, Christian, Dardot, Pierre (2015), Común. Ensayo sobre la revolución en el siglo XXI, 1.ª edición,
Barcelona, Gedisa.
MacIntyre, Alasdair (2001), Animales racionales y dependientes. Por qué los seres humanos necesitamos las
virtudes, Barcelona: Paidós.
Ostrom, Elinor (2000), El gobierno de los bienes comunes. La evolución de las instituciones de acción
colectiva, 1.ª edición, México, México UNAM-CRIM-FCE.
Ostrom, Elinor (2009), «Beyond Markets and States: Polycentric Governance of Complex Economic
Systems. Nobel Prize Speech»,
URL:
Pelacho,
sciences/laureates/2009/ostrom_lecture.pdf
Maite (2015), «Una experiencia docente http://www.nobelprize.org/nobel_prizes/economic-
con Ibercivis», conCIENCIAS (16), 74-85.
RESUMEN: Sin mayor esfuerzo en busca de consenso, podemos consentir que una de las
profundas consecuencias que ha traído consigo la modernidad es la definición expresa en un
inicio, y tácita luego, de lo que constituye nuestro concepto de realidad, sobre cuyo estatuto
hemos visto emerger, un mundo objetual lleno de sensibles.
Sin embargo, uno de sus logros, el imparable avance científico y sus aplicaciones
tecnológicas, se encuentra, desde hace ya tiempo, incómodo frente a su genealogía al negar ya
de forma insistente sus propios principios originarios. La denominada «realidad mediada por
ordenador», toma como base la actual noción de virtual, cuyo entendido general parte como
«existencia aparente no real» en lenguaje español y «existencia no física» en el inglés. Una de
las últimas aplicaciones de esta técnica es la denominada Realidad Aumentada que trata sobre
el mundo que se encuentra en cualquier parte a medio camino entre el que denominamos real,
y el fundado sobre una modernidad calculable denominado virtual.
La presente comunicación trata sobre el abordaje de tal situación desde el punto de vista de
la escuela de pensamiento neopragmatista y, particularmente, de uno de sus más célebres
representantes, el profesor estadounidense Richard Rorty.
Palabras clave: Filosofía; Realidad Aumentada; Pragmatismo; Holismo; virtual; Realismo;
Antirrealismo; Rorty.
1. INTRODUCCIÓN
La Realidad Aumentada (RA), o en inglés, Augmented Reality (AR), conforma lo que
en la jerga informática está sonando como una de las modalidades de «Realidad
Mixta» y esta a su vez, como una de las de «Realidad mediada por ordenador» a decir
de (Mann 2002, 5). Se trata de una de las técnicas computacionales con mayores
promesas de aplicación futura. Nos surge entonces la inquietud, incluso desde su
misma denominación, la contextualización de una coloquial y aparente reformulación
de las nociones de realidad. Dada la variada emergencia conceptual de nuestros días,
condicionada por el tácito realismo que domina la cultura en prácticamente todas sus
áreas, y de forma paradigmática en las ciencias, se ha considerado conveniente
realizar un estudio introductorio sobre los esquemas conceptuales que, detrás del
sugerente título, se mimetizan cada vez con mayor desenfado y desparpajo en la
cultura.
2. REALIDAD AUMENTADA
Entrando en materia, diremos que, por la diversidad de definiciones y autores que
la analizan y, dadas sus aún inimaginables aplicaciones, Realidad Aumentada consiste
en la combinación o mezcla como montaje-composición sensorial –visual por ahora–
interactiva y en tiempo real, de nuestra noción espacio-temporal del mundo (3D+T,
tetra dimensional), con objetos virtuales de dimensión espacial 2D y 3D. Para quienes
son seguidores de la filmografía futurista y de ficción, les sonarán obras como «After
Earth», «Ironman», «Minority Report» o «Avatar»[1], entre muchos más, en las que,
de una forma intuitiva en cuanto a lo visual, sus directores nos han transmitido
hábilmente el concepto de Realidad Aumentada. En cualquier caso, os invito a
imaginar algo que hoy mismo ya no nos suena muy descabellado, y es la idea de tal
cual una sesión de piercing que dura cinco minutos o menos, está cada vez más cerca
la posibilidad de, con un procedimiento de similar futura accesibilidad, sustituir
nuestro cristalino ocular –tal cual una catarata– con lentes de altísima funcionalidad,
orientándose a lo que se está debatiendo bajo diferentes nominaciones como «Human
Enhancement», «Human-Plus» o «Bodily-Upgrade», aparentemente todas en el
contexto del Transhumanismo[2], una clase de filosofía de la vida que busca la
continuación y la aceleración de la evolución de la vida inteligente más allá de su
forma humana actual y sus limitaciones, mediante el uso de la ciencia y la tecnología
(More 2010). En este particular caso, esta lente transparente tendrá la capacidad de
forma cuasi-nativa, presentar a su portador, una mezcla visual espacio-tridimensional
de formas y elementos virtuales que se insertan, incrustan, intercalan y acoplan,
siempre sobre la coordinada perspectiva dinámica en tiempo real de su campo de
visión, con las formas y elementos espacio-visualmente definibles de la realidad
detectable de forma natural. Así, el usuario podrá contar con información y
funcionalidades, en la práctica, ilimitadas de cada objeto «real», identificado por la
lente y requerida por dicho usuario, para llevar a cabo de una manera
incomparablemente más eficiente, sus tareas cotidianas productivas, familiares, de
ocio, etc. La petantesca[3] base de información que esto requerirá, deberá ser
generada, en forma de contenidos, de forma colaborativa por toda la comunidad de
usuarios y almacenada de manera distribuida. Esto significa que las personas llevarán
consigo el acceso permanente e ininterrumpido a prácticamente la totalidad de
información generada y digitalmente almacenada por la cultura a través de su
historia, siendo el evento que dispare su búsqueda y proyección contextualizada, cada
una de sus vivencias cotidianas; potenciando cada vez más y por un lado, la ubicuidad
digital de la cultura, en tanto, pluged u on-line, y por otro, la difuminación del límite
entre lo real y lo virtual.
Pues bien, Ronald Azuma, de la Universidad de Carolina del Norte y actual líder de
proyectos de investigación en Realidad Aumentada de Laboratorios Intel en el mismo
estado, citado en (Cabero Albenara et al. 2016, 16), especifica que esta tiene tres
características que la determinan de forma precisa, a decir:
• «La combinación de lo real y lo virtual»
• «La interacción en tiempo real»
• «La ubicación en el mismo sistema de coordenadas 3D que la realidad»
Entra pues aquí, un término de creciente importancia, como diría Peirce, en el
conjunto de creencias de nuestra comunidad cada vez más global, lo virtual. Para la
Real Academia de la Lengua Española, en su correspondiente acepción, se dice virtual a
aquello «que tiene existencia aparente y no real» (Real Academia Española, n.d.), y
según el diccionario Oxford, traducido del inglés, «Existencia no física como tal, sino
elaborado por software para parecerlo» (Oxford University Press 2017). Como vemos,
pues, para avanzar hacia lo que, en nuestros ciernes, sería, si fuere, el estatuto del
elemento virtual de la RA, es necesario hacerlo desde su referencia genética, su
contra-noción originaria, sin la que pierde su sentido en el contexto de la ciencia
informática, su elemento real, la realidad, tal como es entendida.
En sentido corriente la frontera entre los términos «real» y «verdadero» pueden
llegar a desdibujarse. La sombra dualista entretejida en nuestra forma de vida y
evidenciada en dicha aparente sinonimia, no trasluce otra cosa que claro
Correspondentismo y Representacionismo, definidas dianas de las críticas que, desde
Peirce, pasando por James y alcanzando a Dewey, atacaron directamente desde lo que
hoy se conoce como el Pragmatismo clásico. Y no será sino hasta el último cuarto del
siglo pasado que sale a la luz nuestro marco normativo-metodológico de
investigación, las reflexiones neopragmatistas y holistas de Richard Rorty, filósofo
norteamericano posmoderno, ya extinto, con creciente prestigio e influencia en los
desvelos académicos y políticos de nuestro tiempo.
3. ANTIREPRESENTACIONISMO
En dicha base, Rorty deplora la noción de verdad por correspondencia como
plataforma teórica del Realismo o aún mejor, Representacionismo, cuyos
procuradores, a su decir, no son sino los desafortunados herederos de una de las tesis
modernas con mayor arraigo en nuestra forma de vida contemporánea, la forma de
pensar o representar el mundo en nuestra mente. Bajo este esquema, el mundo quedó
dividido en dos regiones ontológicas: mente y mundo, dotándose en su base de vida
artificial a la denominada «Filosofía de la Mente». Esta tradición iniciada por
Descartes, beatificada por Locke y canonizada por Kant, es la causante, según Rorty,
de un fundacionismo quimérico sobre cuyos pilares se erigió, centro-orbitalmente,
una teoría del conocimiento con artificiosas pretensiones de alcanzar la esencia de las
cosas, su Verdad oculta más allá de cualquier tipo de actividad descriptiva por parte
de un sujeto cognoscente.
El Pragmatismo en su forma más actual, Neopragmatismo, no puede ofrecer una
teoría de la Verdad –con mayúscula–, al no ser esta una meta posible de investigación
por ostentar su indeterminable carácter absoluto; en ese sentido sostiene la
inexistencia de su hipóstasis en razón de que no existe criterio alguno para
determinar la condición de, por lo menos, aproximación a ella con cada modificación
o actualización de nuestra red de creencias y su consecuente asimilación y reajuste en
nuestros hábitos conductuales. Sin embargo, sí contamos con el suficiente criterio
para aplicar el término «verdadero» como adjetivo o calificativo, en tanto
justificación que bien es relativa a los propósitos e intereses que tenga un auditorio
conforme su situación, esto es, su etno-contexto, su comunidad.
4. DESCRIBILIDAD Y VOCABULARIO
Siguiendo a Rorty, «los teóricos de la correspondencia necesitan criterios para la
adecuación de los vocabularios no menos que para la de las oraciones, necesitan la
noción de un vocabulario que de alguna manera encaja mejor con el mundo que otro».
De este modo, bien podríamos admitir la posibilidad de que «algunos vocabularios –
por ejemplo, el de Newton–, no solo funcionan mejor que otros –por ejemplo, el de
Aristóteles–, sino que lo hacen porque representan la realidad, más adecuadamente»
(Rorty 2000, 117). Pero, ¿qué quiere decir nuestro autor, con encaja mejor?
Simplemente que, para los representacionistas, existe en alguna parte, una suerte de
categorización de vocabularios cuyo criterio de distinción no es otra que la precisión
representacional a unos supuestos rasgos intrínsecos independientes de toda
descripción. En esa razón, caben, entonces, «propuestas de conmensuración universal
mediante la hipostatización de un conjunto privilegiado de descripciones» (Rorty
2010, 340), ante cuyo vocabulario, se expone, como hemos señalado, de una mejor,
más racional o más adecuada manera, la cosa-en-sí.
A tono con Donald Davidson, ratifica la necesidad de abandonar todo intento de
validación de las proposiciones ya sea desde el lado del mundo o desde el lado de
nosotros; o dicho de otra forma, ha de abandonarse el tercer dogma del empirismo, la
distinción esquema-contenido definida por (Davidson y Fernández Prat 2003, 82), con
cuya ruptura se desploman de igual forma los dualismos directamente eslabonados:
idea-cosa, físico-mental, lenguaje-mundo, mente-mundo, subjetivo-objetivo, sujeto
objeto, a priori-a posteriori, sintético-analítico, inmanencia-trascendencia,
fenoménico-nouménico, necesario-contingente, apariencia-realidad, etc., dejando,
por un lado, sin piso cualquier teoría del conocimiento basada en el empeño de un
mundo dual, y por otro, no resolviendo, sino eliminando de raíz el problema realismo
antirrealismo y su, a este criterio, congénita irresolubilidad y futilidad.
Ante una aseveración coloquial como: «No obstante su inmaterialidad, los objetos
virtuales de RA pueden causar daño y hasta la muerte», los representacionistas dirían
que tal proposición es verdadera o falsa, en tanto, «cómo son las cosas en cualquier
caso», en frase de Bernard Williams, citado en (Rorty 2000, 118). A su decir, hay dos
maneras de interpretar dicha proposición. Si ese, «cómo son las cosas en cualquier
caso» significa, tal como originalmente lo dijo (Davidson y Fernández Prat 2003, 196),
«la verdad de una proferencia depende sólo de dos cosas: de lo que significan las
palabras tal como han sido dichas y de cómo está dispuesto el mundo» o en palabras
del mismo Rorty, «en virtud de cómo se usan las descripciones que tenemos de las
cosas, y de las interacciones causales que mantenemos con esas cosas»[4], entonces y
solo entonces las proposiciones verdaderas sobre los objetos virtuales de RA, así como
la presencia de personas en este salón, «la existencia de neutrinos, la deseabilidad del
respeto a la dignidad de los seres humanos, y sobre todo lo demás, son verdaderas en
virtud de ese cómo son las cosas en cualquier caso». Pero, si al contrario significa: «en
virtud de simplemente cómo sean las cosas, completamente al margen del modo en que
las describamos», entonces ninguna proposición puede ser verdadera o falsa en virtud
de, «cómo son las cosas en cualquier caso».
Aun así, para Rorty es insuficiente el mero abandono del subyacente tercer dogma
del empirismo de Quine, la distinción esquema-contenido[5] (Quine 2002, 61), para
explicar el sentido de correspondencia. Es necesario dar una vuelta de tuerca para que
dicha noción sea abjurada de nuestro léxico, es decir, desechar la noción de los rasgos
que las cosas poseen de forma intrínseca e independiente de las descripciones que
hagamos de ellas.
Para el holismo y el pragmatismo que caracterizan las reflexiones de nuestro
autor, una proposición puede ser catalogada como verdadera o falsa, únicamente
dentro del ámbito de su descripción y a la luz de los saltos y avances que dichas
descripciones consiguen hacia la realización de una situación propositiva, valga la
redundancia y honrando a Dewey. Entonces, ¿cuáles son los rasgos intrínsecos que son
no-relativos-a-la-descripción de un objeto virtual de RA? ¿Bajo qué descripción es
mejor descrito con respecto a la intrinsicidad de su virtualidad? ¿Qué diferencia hay
entre el estatuto de un salpicadero en la línea de ensamblaje de una marca
determinada de vehículos y el de un objeto virtual de RA de un salpicadero en el
sistema informático en tiempo de diseño o comercialización por parte del mismo
cliente? En diseño de interiores: ¿qué diferencia estatutaria hay entre el amoblado de
una oficina y los muebles virtuales de RA presentados como diferentes opciones de
amoblado en el sistema informático de la cadena de almacenes IKEA? En educación:
¿qué diferencia estatutaria hay entre la presentación audiovisual en pantalla de la
magnitud diferencial-escalar-espacial del brazo en espiral Carina-Sygnus de la Vía
Láctea de un sistema informático tradicional, o del mismísimo brazo Carina-Sygnus en
cuerpo presente, frente al objeto virtual de RA correspondiente presentado y
manipulado sobre la mesa del profesor de Astrofísica? Ante ellos, Rorty nos
comentaría que sólo una vez que hayamos descritos a los objetos virtuales de la RA a
través de los rasgos causales en cualesquiera de los vocabularios de la ingente
diversidad de nuestras actividades culturales, sea cual sea en las que se puedan
aplicar, rasgos como su color, tamaño relativo, forma o nivel de interactividad,
resultan causalmente independientes del modo en que pueden ser descritos por
cualquier descriptor. Únicamente bajo el contexto o marco de su descripción, en
cualquier vocabulario, «estaremos en disposición de decirte cuáles de sus rasgos son
causalmente independientes del hecho que haya sido descrito y cuáles no». Si se lo
describe como un objeto virtual de RA, entonces podremos decir que, el rasgo de ser
un objeto que ha sido generado a través de la asistencia de cámaras, pantallas,
software especializado, sensores, activadores, actuadores, giroscopios y la capacidad
de procesamiento computacional de un ordenador, es causalmente independiente de
la descripción que se le haya dado; mientras que el rasgo de ser una técnica
computacional cuyos márgenes de servicio social pueden ser insospechadamente
elevados, no lo es. A pesar de la posible confusión, esta no es una distinción entre
rasgos intrínsecos y extrínsecos o meramente relacionales; es simplemente una
distinción entre sus relaciones-causales-bajo-una-descripción con algunas cosas (en el
primer caso, con el ordenador y los mencionados periféricos) y sus relaciones
causales-bajo-una-descripción con otras (en este segundo caso, con nosotros). Estas
últimas, son las que agrupan y distinguen a las relaciones causales dependientes de la
descripción, de las primeras y en oposición, independientes a ella. En resumen y como
diría James, a tal estatuto independiente no hay forma de hallarlo por ninguna parte
(James 2000, 200).
5. REALIDAD – VIRTUALIDAD
Esto lo podemos hacer si abandonamos la distinción representacionista de
apariencia y realidad, o de apariencia y hacer verdadero, en tanto es el mundo que juzga
lo verdadero. Del mismo modo «podremos dejar que números y mesas, quarks y
estrellas», objetos virtuales y objetos reales de Realidad Aumentada, así como los
«valores morales, compartan el mismo estatuto objetivo». A esta luz, ¿cómo queda
finalmente la distinción específica entre un objeto virtual, y uno real de RA?
Parafraseando a Rorty: agrupamos a «Sherlock Holmes, la Tierra Media, el número 17,
las reglas del ajedrez» y la cláusula central del acuerdo de cooperación entre los países
miembros de la Unión Europea para hacer frente a la inmigración descontrolada,
como no-físicos, no porque sean no-espacio-temporales (¿qué tiene de no-espacio
temporal un objeto virtual de RA, del mismo modo que ¿qué tiene de espacio
temporal un objeto real de RA?), «o porque todos sean de algún modo objetos
subjetivos o convencionales, sino porque no esperamos que nuestras creencias en torno
a ellos se vean alteradas por ese ámbito de actividad cultural que se conoce como
ciencia física». Un objeto virtual de RA o un objeto real de RA por tanto, es
exclusivamente, «aquello de lo que son verdaderas la mayoría de las creencias
expresadas en enunciados» descriptivos que contengan el término «objeto virtual» u
«objeto real de RA». Cae, por tanto, en la futilidad toda pregunta sobre la condición de
realidad inmutable de una cosa, sea física o no-física, «en oposición a preguntar si es
útil hablar de ella, si es localizable espacialmente, o espacialmente divisible, o
tangible, o visible, si se identifica con facilidad, si está hecha de átomos, si es buena
para comer, etc»..
Las creencias verdaderas, para el Pragmatismo, desde su mismo surgimiento, no
son sino hábitos de acción (Peirce 1955, 28), estructurados como tal por su éxito al
transportarnos a ulteriores hábitos aún más satisfactorios, en tanto, menos dolorosos;
así pues y en este sentido, por su eficacia. El término real, o el de verdadero, no tiene
por tanto otro uso que el de «epíteto honorífico sin valor informativo ni explicativo»
(Rorty 2000, 156). Así, lo real, podría licenciarse, so riesgo de temeridad en la
descripción, es aquella configuración descriptiva de relaciones temporales, alcanzada
como fin e iniciada como medio, en permanente re-descripción, en negativo, desde la
no-describilidad del dolor, en dirección posible y aventurada en pos de nuevas y
esperanzadoramente afortunadas configuraciones. Luego, la virtualidad o realidad de
un objeto real o virtual de RA, nada tiene que ver con su condición de realidad
lockeana y centenariamente objetiva[6], sino y por entero, en su capacidad funcional y
práctica para trazar puentes a mejores posibilidades futuras.
Los términos «Realidad Aumentada», «Realidad Mixta» o «Realidad mediada por
ordenador», así como «objeto virtual» u «objeto real» de RA o en su nominación
prospectiva correspondiente a cada cultura, más temprano que tarde, serán incluidos
en los cuerpos legislativos estatales, asimilándose formalmente, a través de los
correspondientes vocabularios o argots –creencias en forma de hábitos– en la cultura
popular histórica de nuestras sociedades, sencillamente porque su uso en tanto, en
virtud de, cómo usamos sus descripciones, nos lleva a probar vivir, una y otra vez, en
cualquier nueva y necesariamente desconocida dirección, mientras esta nos aleje,
sistemáticamente, del dolor y el sufrimiento, único faro[7] no-lingüístico para unas
deslocalizadas moral, política y progreso orgánicos, humanamente determinados.
Lo real, nuestra realidad, se fuga con el tiempo.
6. REFERENCIAS BIBLIOGRÁFICAS
Cabero Albenara, Julio, García Jimenez, Fernando, Casado Parada, Inés, Gallego Perez, Oscar,
Barroso Osuna, Julio, Gómez García, Melchor (2016), Realidad Aumentada. Tecnología para la
formación, 1.ª edición, Madrid, Síntesis.
Davidson, Donald (2003), Subjetivo, intersubjetivo, objetivo, Serie Teorema, 1.ª edición, Madrid,
Cátedra.
James, William (2000), Pragmatismo. Un nuevo nombre para viejas formas de pensar, Serie Filosofía, 1.ª
edición, Madrid, Alianza Editorial.
Mann, Steve (2002), «Mediated Reality with implementations for everyday life», Presence:
Teleoperators and Virtual Environments, (Agosto), 1-13
More, Max (2010), «Philosophy», Retrieved November 9, 2017, from
http://humanityplus.org/philosophy/philosophy-2/comment-page-1/
Oxford University Press (2017), «English Oxford Living Dictionaries», Retrieved November 9, 2017,
from https://en.oxforddictionaries.com/definition/virtual
Peirce, Charles Sanders (1955), Philosophical Writings of Peirce, 1.ª edición, New York, Dover
Publications Inc.
Quine, Willard Van Orman (2002), Desde un punto de vista lógico, Serie Teorema, 115, 1.ª edición,
Barcelona, Paidós.
Real Academia Española (2014), Diccionario de la lengua española, 23.ª edición, Madrid, Espasa
Rorty, Richard, (2000), Verdad y progreso. Escritos filosóficos, 3, Serie Paidós Básica, 104, 1.ª edición,
Barcelona, Paidós.
Rorty, Richard (2010), La Filosofía y el Espejo de la Naturaleza, Serie Teorema, 6.ª edición, Madrid,
Cátedra.
[1] After Earth, M. Night Shyamalan, 2013; Ironman, Jon Favreau, 2008; Minority Report, Steven
Spielberg, 2002; Avatar, James Cameron, 2009.
[2] Si bien el término es generalmente aceptado como acuñado por Julian Huxley en 1957, ya las
nociones futuristas en esta dirección venían dadas por lo menos desde 1923 a través del biólogo evolutivo
británico John Haldane en su obra «Science and the future», conocida también como «Daedalus».
[3] Petantensca, 1015, en oposición a la insuficiente 109 de gigantesca.
[4] Si bien, según Rorty, él parafrasea a Davidson en este par de sentencias, es evidente la
diferenciación conceptual en los términos utilizados entre el filósofo analítico de este último y el holista del
primero.
[5] Los dos primeros y tácitos dogmas son los establecidos por Quine en su obra «From a logical point of
view». A decir: 1) Distinción fundamental entre verdades analíticas procedentes de significados
independientes de los hechos, y verdades sintéticas dependientes de tales hechos. 2) Creencia de que el
sentido de los enunciados equivale a alguna construcción lógica proveniente de la experiencia.
[6] Objetos de una realidad externa y opuesta a la mente del hombre, en tanto este, criatura mundana,
dotada de cuerpo, y espiritual, dotada de alma. Recordar las «cosas» como objetos definibles por sus
cualidades primarias y secundarias.
[7] Aunque considerándolo innecesario, prefiero aclararlo. La función de un faro, no es iluminar el
camino, al contrario, señalar la no-vía.
EL PAPEL DEL MEDIADOR DE CIENCIA, TECNOLOGÍA Y
TECNOCIENCIA EN LAS SOCIEDADES DE CONOCIMIENTOS
RESUMEN: El presente trabajo parte de una de una de las ideas en la que insistía el Dr. León
Olivé, la del experto mediador como una figura necesaria en la nueva relación entre ciencia,
tecnología, sociedad, yo considero también a la tecnociencia y el medio ambiente.
La ciencia y la tecnología no están de forma aislada en la sociedad, sino inmersas en ella, por
ello, los distintos sectores que la conforman (gobernantes, empresarios, industriales y
ciudadanos en general), deben tener una mejor y adecuada comprensión de los sistemas y
estructuras de la ciencia y la tecnología, y su relación con el medio ambiente, la figura del
mediador funciona como el puente que puede conectar dicha relación, sin que las comunidades
científicas pierdan su autonomía epistémica pero tampoco queden al margen de la sociedad.
El trabajo aborda en lo general el problema de la democratización y comunicación de la
ciencia y la tecnología, para ello considero tres apartados, en el primero se recurre a la
perspectiva de una filosofía política de la ciencia, el segundo desde la apropiación social de la
ciencia, y un el tercero concluyo con una propuesta en la que podría ser posible la figura del
mediador en México.
Palabras clave: Filosofía; Comunidades; Cultura; Política; Social.
1. INTRODUCCIÓN
E l presente trabajo es el inicio de un proyecto que comienzo a desarrollar, en el
Olivépretendo
cual (quien lamentablemente
profundizar sobre yauna
no de
estálascon
ideas
nosotros),
en las que
y insistía el Dr. León
con la intención de
extender, de alguna manera, su pensamiento. Me refiero a la idea del experto mediador
como una figura necesaria en la nueva relación entre ciencia, tecnología, tecnociencia,
sociedad y medio ambiente.
Partiendo de la filosofía de la ciencia, y con un enfoque desde la filosofía política
de la ciencia y de la apropiación social de la ciencia, pretendo desarrollar aquí la idea
de la necesidad de la figura del mediador como el puente necesario que puede
conectar la mencionada relación. El trabajo aborda en lo general el problema de la
democratización y comunicación de la ciencia y le tecnología, para ello considero tres
apartados, el primero donde se recurres a la perspectiva de una filosofía política de la
ciencia, el segundo desde la apropiación social de la ciencia y un tercero donde
concluyo con la incipiente manera en la que en países como México podría ser posible
la figura del mediador.
El mundo contemporáneo tiene como una de sus principales características la
creciente interacción, en los distintos niveles, de los diversos países y las diversas
culturas, en un sentido positivo y negativo. El desarrollo científico y tecnológico
alcanzado por las naciones industrializadas, ha producido un empequeñecimiento del
mundo y ha obligado a estrechar relaciones entre países, pueblos y culturas muy
diferentes y cuyo desarrollo técnico-económico son muy desiguales.
El proceso de globalización parece llevar consigo una tendencia a la
homogenización[1] en el mundo, este proceso que hoy puede apreciarse en toda su
dramática dimensión, se convierte en uno de los más grandes problemas filosóficos
actuales. Esta homogenización no implica un carácter positivo, no en todos los
aspectos que toca, y es más evidente en la inexistente relación equitativa entre la
ciencia, la tecnología y la tecnociencia, con las sociedades, éstas no se apropian ni
aprovechan siempre o en todos los casos el conocimiento generado por aquellas.
Y si consideramos que esos conocimientos son bienes públicos, entonces deben ser
utilizados para aumentar el bienestar social y para resolver una diversidad de
problemas, económicos, sociales, culturales, ambientales y de preservación de
recursos. Al respecto Olivé (2007, 38) señala que:
A pesar del enorme potencial de la ciencia y de la tecnología, en muchos sectores sociales de
los países Iberoamericanos –políticos, gubernamentales, empresariales, de organizaciones
ciudadanas y público en general– no se ha logrado una adecuada comprensión de su
estructura y funcionamiento, y sobre todo de su capacidad para concurrir eficientemente no
sólo en el crecimiento de las economías, sino en la resolución de los problemas que enfrentan
las sociedades a escala regional, nacional y planetaria.
La ciencia y la tecnología no están de forma aislada en la sociedad, sino inmersas
en ella, es importante el papel de funcionarios del estado, de industriales y
empresarios, así como de los ciudadanos en general, y estos deben tener una mejor y
adecuada comprensión de los sistemas de ciencia y tecnología; sin que las
comunidades científicas (y epistémicas) pierdan su autonomía epistémica, pero
tampoco que estén al margen de la sociedad.
4. PARA CONCLUIR
La tesis central que quiero mostrar en este trabajo es, que una condición necesaria
para transitar hacia sociedades de conocimientos es el fortalecimiento de una cultura
de conocimientos, es decir, la utilización social, creativa y libertaria del conocimiento,
fundado en una ética social y ambiental, para ello, la figura del mediador juega un
papel fundamental. Para una sociedad democrática es necesario que ciudadano y
gobernante participen de la reflexión acerca de la naturaleza de los sistemas
científico, tecnológicos y tecnocientíficos, sobre su importancia y sus efectos en la
sociedad y la naturaleza.
En el caso específico de sociedades multiculturales, especialmente en
Latinoamérica, frente a la globalización y a la llamada sociedad del conocimiento, los
retos para construir una cultura científica y tecnológica son aún mayores[4]. Se
sostiene que para ampliar las capacidades y los funcionamientos de las personas (en el
sentido de Amartya Sen) que pertenecen a grupos que han sido excluidos del
conocimiento y sus beneficios, y para tomar el camino hacia sociedades menos
injustas, deben promoverse políticas para que los miembros de esos grupos:
participen, generen conocimiento y lo incorporen a sus prácticas, considerando que
tan importante es el aprovechamiento de conocimientos científico-tecnológicos, como
de los conocimientos locales y tradicionales[5].
La inversión en ciencia y tecnología en los países desarrollados o del Norte, es
mayor que en el Sur o de países menos desarrollados, allá se valora como un recurso
nacional y propio, estratégico. En el sur, no se valora el conocimiento propio (o no de
la misma manera), se importa cuando se necesita de forma no conectada. Esta
diferencia de valoración del conocimiento es consecuencia de lo que denominan
Arocena y Sutz «divisorias del aprendizaje».
La desigualdad de distribución del conocimiento es entonces la clave principal de
la diferencia Norte-Sur y entre grupos sociales. «el conocimiento es el más poderoso
agente de prosperidad y desigualdad». En esa perspectiva, Arocena y Sutz (2003),
lanzan propuestas de carácter general, como la necesidad de potenciar en el Sur líneas
de investigación orientadas al desarrollo con miras a largo plazo y de carácter
interdisciplinar. También creen necesario fomentar la democratización del
conocimiento, en sus dos versiones: la comprensión de la ciencia y la tecnología y la
participación de la ciudadanía en la definición de políticas. Buscar soluciones plurales
y colectivas que permitan interconexiones que faltan, por ejemplo, redes interactivas
de aprendizaje.
Aquí es donde la figura del mediador juega el papel para facilitar o hacer que
sucedan ambas cosas. El objetivo debe ser acercar la investigación a la sociedad dando
lugar a condiciones propicias para la adopción de decisiones políticas acordes con las
necesidades sociales, las preocupaciones de la población y el progreso general del
conocimiento.
El mediador entre la ciencia-tecnología y sociedad/medioambiente tiene el papel
de hacer el puente, con esa bidireccionalidad indispensable, para lograr una
comunicación y una participación efectiva de la sociedad en el sistema de ciencia
tecnología y así contrarrestarle poder, que actúe con responsabilidad, porque ante un
panorama de incertidumbre, la responsabilidad de lo que se hace hoy en el mundo en
que vivimos, es más importante que la predicción o el control que puede tener la
ciencia y la tecnología o la tecnociencia.
El mediador representa una innovación social para una práctica de apropiación
social de la ciencia-tecnología, implica un activismo social que en la bidireccionalidad
lleva implícita la misión de permear la idea de que se trata de aceptar que el pueblo, la
sociedad es capaz de tomar decisiones, que son en muchos casos los directamente
relacionados con la innovación tecnológica y como usuarios resultan más
innovadores, se trata de aceptar que el conocimiento de esa sección no es peor que los
dirigentes y expertos, y que para que exista una real conexión e integración entre los
elementos del modelo de ciencia y tecnología o del sistema I+D+i, es fundamental la
participación de la sociedad.
5. REFERENCIAS BIBLIOGRÁFICAS
Arocena, Rodrigo y Sutz, Judith (2003), Navegando contra el viento, Ciencia, Tecnología y Subdesarrollo,
Madrid, Cambridge University Press/OEI.
Echeverría Ezponda, Javier (2003), La revolución tecnocientífica, España, Fondo de Cultura Económica.
Echeverría Ezponda, Javier (2011), «Epistemopolis: From knowledge communities to knowledge
cities», en Echeverría Ezponda, Javier y Oiarzabal, Alonso (eds.), Knowledge communities. Center
for Basque Studies, University ofNevada, Reno, 19-35.
Echeverría Ezponda, Javier (2008), «Apropiación social de las tecnologías de la información y de la
comunicación», Revista CTS, (10, volumen 4), 171-182.
López Beltrán, Carlos y Velasco Gómez, Ambrosio (eds.) (2013), Aproximaciones a la filosofía política de
la ciencia, México, UNAM.
Olivé, León (2007), La ciencia y la tecnología en la sociedad del conocimiento. Ética, política y epistemología,
México, Fondo de Cultura Económica.
Olivé, León (2007), ¿A quién pertenece el conocimiento? Poder y contrapoderes en el camino hacia
las sociedades del conocimiento, México, UNAM.
Quintanilla, Miguel Ángel (2005), Tecnología: un enfoque filosófico y otros ensayos de filosofía de la
tecnología, México, Fondo de Cultura Económica.
Sanz Merino, Noemí (2007), «Gobernanza de la tecnociencia y la participación ampliada. Entrevista
a Silvio Funtowicz y Javier Echeverría», Argumentos de Razón Técnica (10), 337-359.
Villoro, Luis (2007), Los retos de la sociedad por venir, México, Fondo de Cultura Económica.
Vijande Martínez, Antonio (2003), «Ciencia, tecnología, sociedad e innovación en la Sociedad del
Conocimiento: a ambos lados de las divisorias del aprendizaje», Isegoría (28), 159-170.
[1] Se puede pensar en procesos de homogenización positiva, no toda es condenable. En mi opinión es
aceptable aquella que permita preservar la identidad de las culturas y que facilite su desarrollo y progreso.
No es aceptable aquella en cuyo nombre suelen cometerse atrocidades, injusticias u violaciones a los
derechos y dignidad de las personas y los pueblos.
[2] La palabra «experto» que es la que imprime en su idea Olivé, creo que no es la más adecuada, quizá
solo profesional mediador es suficiente.
[3] Este tema es un proyecto sobre el que ya se está trabajando en la Coordinación de Humanidades de
la UNAM desde hace algunos años, bajo la dirección por mucho tiempo del propio Dr. Olivé, y cuya finalidad
esencial es lograr en y desde las comunidades rurales, agrícolas e indígenas una cultura de la ciencia y la
tecnología, aprovechando y conservando el conocimiento tradicional de ellos e incorporando el
conocimiento de la ciencia y la tecnología para su aprovechamiento.
[4] Luis Villoro ha propuesto la constitución de contrapoderes (2007), o Beck una nueva separación de
poderes (1999), como una vía para el encontrar la solución al problema asimétrico, desde la perspectiva
moral y política, de la privatización del conocimiento, en el campo socio-eco-cultural y político, que
permita controlar la tecnociencia; un activismo social en ciencia y tecnología, en el contexto de las políticas
públicas pero también en el ámbito académico.
[5] Existen en México distintos proyectos que llevan a la práctica estas ideas de la participación
ciudadana, como Las Redes Sociales de Innovación de la UNAM que trabaja con comunidades indígenas, ya
referido, o el Programa de Ciencia Ciudadana (PCC) que trabaja con comunidades de pescadores en el Golfo
de California.
LA TÉCNICA EN HEIDEGGER Y DERRIDA. APROXIMACIONES Y
DIVERGENCIAS
RESUMEN: De lo que son los fantasmas para la tecnología y la tecnología para los fantasmas.
El texto analiza la relación del pensamiento de Heidegger y Derrida con la técnica. Primero
estudia la comprensión heideggeriana de la técnica en oposición crítica a algún concepto
moderno de cientificidad para plantear, a su vez, y entre líneas, cierto pensamiento anti
tecnológico y ecologista en el texto de Heidegger. Segundo, aparece la deconstrucción de
Derrida, para la cual el pensamiento de la esencia y la esencia del pensamiento no serían
inmunes a la técnica puesto que, por el contrario, el pensamiento nunca es inmediato, siempre
está ya mediado por una tele-técnica que desbarata cualquier posibilidad de pensamiento no
técnico. Por lo tanto, el pensamiento de Derrida no será anti-tecnológico sino más bien un
nuevo pensar la técnica en cuanto suplemento necesario que desarticula la pureza de la esencia
desde su origen.
Palabras clave: Fantasma; deconstrucción; esencia; ciencia; provocación.
1. INTRODUCCIÓN
La esencia de la técnica solo surge a la luz del día lentamente. Ese día es la noche del mundo
transformada en mero día técnico. Ese día es el día más corto. Con él nos amenaza un único
invierno infinito. (Heidegger 1995, 266)
¿Es la técnica lo mismo que la metafísica? Es decir, ¿es la palabra «técnica» solo
otro nombre para aquello que la historia de la filosofía llamó «metafísica» o, en
cambio, la técnica es precisamente aquello que vendría a desmentirla? ¿Diríamos hoy,
en este tiempo dominado por el saber científico-técnico, que la técnica nos ayuda
precisamente a liberarnos de aquellos fantasmas que engendraba el saber metafísico?
Y ¿se puede usar hoy y aquí el sustantivo «saber» para referirse a la metafísica o, en
cambio, el único saber aceptable ya, el único saber que sabe, es el adjetivado como
científico?
Una pregunta, entonces, en forma filosófica: ¿qué es la técnica?
Parece obvio que la técnica, indispensable para el saber científico hasta el punto
que este depende completamente de aquella, al menos en su concepción moderna,
permite un conocimiento relevante del objeto investigado. Diríamos que un satélite,
por ejemplo, posibilita un entendimiento tal de los procesos climatológicos que
aparta, o desenmascara, a los viejos fantasmas de la lluvia.
De alguna manera nos lleva a ver, como una suerte de lupa o telescopio, lo que
permanecía oculto para nosotros. La cosa aparece ante nosotros mostrando sus dos
caras, por así decirlo.
Por ejemplo una nube no aparece solamente como una mancha o cuerpo en el
cielo, relativamente informe, y que en ocasiones expulsa de sus entrañas agua,
granizo o nieve, incluso golpes de luz y ruido, sino que muestra también su cara
oculta, es decir, aparece también como un «agregado visible de minúsculas gotitas de
agua, de cristales de hielo, o de ambos, suspendido en la atmósfera y producido por la
condensación de vapor de agua». Obviamente, la definición de la RAE de la palabra
«nube» que acabo de leer está ya atravesada por la técnica. Nuestro lenguaje, desde el
significante hasta el significado, suponiendo que acreditemos todavía esa diferencia,
es ya un lenguaje técnico. Esto quiere decir que antes del habitualmente llamado
«lenguaje técnico», que no es más que lenguaje específico, el lenguaje estaría
tecnificado desde el principio. Entonces habría que preguntarse si la palabra «técnica»
está ya tecnificada. O, planteado de otra forma, ¿es técnica la técnica?
4. REFERENCIAS BIBLIOGRÁFICAS
Derrida, Jacques y Stiegler, Bernard (1988), Ecografías de la televisión. Entrevistas filmadas, Buenos
Aires, Eudeba.
Heidegger, Martin (1995), «¿Y para qué poetas…?», en Caminos de bosque. Madrid, Alianza.
Heidegger, Martin (1994), «La pregunta por la técnica», en Conferencias y artículos, Barcelona,
ediciones del Serbal.
Leyte, Arturo (2015), Heidegger. El fracaso del Ser, Barcelona, Batiscafo.
POCO VISIBLES PERO INDISPENSABLES: POSICIÓN Y
CONDICIÓN DE LAS MUJERES EN LA FORMACIÓN ACADÉMICA
UNIVERSITARIA
INTRODUCCIÓN
as universidades se han constituido históricamente en centros de producción y
L
1.
y a la generación
difusión del saber,dey nuevos
han sido reconocidas por sus aportes al pensamiento crítico
conocimientos. No obstante, son pocas las ocasiones
en que se han convertido en objeto y centro de análisis.
Por lo general las universidades se presentan en el imaginario social como
espacios en los que prima la democracia, el pensamiento plural y la equidad, sin
embargo dichas instituciones constituyen no sólo instancias de construcción del saber
sino de poder (Bourdieu 1988, 53). Dentro de este escenario, las desigualdades de
género se expresan y operan entre sus trabajadores/as, docentes y estudiantes vía la
segregación vertical y horizontal. Es por ello, que las universidades, pese al
incremento de la presencia femenina en sus aulas, están aún muy lejos de alcanzar la
paridad y equidad entre hombres y mujeres (Lagarde 2000, 1).
Discutir estos aspectos en el campo universitario no resulta una tarea sencilla, ya
que implica poner en tela de juicio la aparente «neutralidad» que tanto se proclama
en su interior. Es por ello, que la interpelación al campo académico deber ser desde
una mirada reflexiva, a fin de revelar la interrelación y las contradicciones entre los
discursos teóricos y la práctica académica. En Bakker (1999, 245) la inconsistencia
entre los discursos y la práctica en el campo académico universitario, está vinculado a
lo que define como «silencio conceptual», categoría que sintetiza las dificultades del
medio académico y sus integrantes para aceptar que existe en su interior un espacio
marcado por diferencias de género. Problematizar dichos aspectos mediante el
análisis de un conjunto de evidencias e indicadores de género es nuestro objetivo.
De otro lado, en los últimos años somos testigos de cómo en el ámbito de la
construcción del conocimiento científico «lo evidente» es prueba de lo real. Los
indicadores sin duda, constituyen herramientas que cuantifican y miden la
producción de conocimiento, otorgando un creciente valor a toda la producción
científica y/o académica sea vía; un artículo, libro o capítulo de libro etc. Su mayor
difusión, otorga a su autor/a mayor prestigio, visibilidad y poder. El espacio
académico es sin duda un espacio que se presenta como altamente competitivo, donde
el reconocimiento adquiere un valor esencial pero también constituye un mecanismos
de diferenciación, en la medida que reconoce a alguno e ignora a otros. En este
escenario, marcado por dicotomías subsiste la necesidad del reconocimiento y el
desconocimiento que implican en término de procesos sociales; la inclusión o
exclusión en el campo académico (Munévar 2004, 184). Esta situación escenario,
reconfigura el panorama académico y de la educación superior poniendo en discusión
nuevas perspectivas para el análisis.
Finalmente, si bien los temas vinculados al enfoque de género surgen en el
escenario académico universitario aspectos tales como la equidad han generado pocos
cambios al interior de la vida académica ¿por qué ocurre esta ausencia? ¿cómo se
evidencia?¿qué lo caracteriza? y ¿cómo se articula el poder y el saber en el campo
académico?, son algunas de las interrogantes que motivaron la presente investigación.
3. METODOLOGÍA
La metodología utilizada parte de un análisis cuali – cuantitativo basado en
indicadores de productividad académica, visibilidad, distribución de roles y funciones
de docentes –varones y mujeres– dedicados a la investigación en C y T, registrados en
las bases de datos de la universidad durante los años 2015 – I y 2015 – II.
Posteriormente, a fin de profundizar en el análisis, dicha información se complementa
con los resultados obtenidos de la aplicación de una guía de entrevistas a docentes
investigadoras de la PUCP a fin de conocer los aspecto que impiden la mayor
presencia y equidad entre hombres y mujeres.
En Vessuri y Cannino (2006, 23), se definen los indicadores de género, ciencia y
tecnología, los mismos que hemos adaptado y se presentan en la tabla 1, la misma que
presentamos a continuación:
Tabla 1. Principales categorías y definiciones a considerar para la elaboración de
indicadores de género en ciencia y tecnología
PREGUNTA
/CATEGORÍA DEFINICIÓN INDICADOR AUTILIZAR
Referido a la movilidad de las mujeres en la jerarquía Número de mujeres en puestos de investigadoras, número de
Segregación
técnico científica. Ayuda a develar las desigualdades y mujeres que lideran proyectos de investigación, número de
vertical
obstáculos que afectan a las mujeres en jerarquías de CyT. mujeres que lideran grupos de investigación.
4. HALLAZGOS Y RESULTADOS
A continuación algunos de los resultados más importante del presente estudio
F M N %
Tabla 3. Número de docentes con investigaciones vigentes, según grado académico y sexo,
2015
SEXO
GRADO ACADÉMICO
FEMENINO MASCULINO TOTAL
Bachiller 1 1
Licenciado 28 32 60
Magister 58 81 139
N % N % N %
Fuente: Base de datos de la DGI de la Pontificia Universidad Católica del Perú. 2015.
Grupos de Investigación
Los grupos de investigación constituyen asociaciones fundamentales en el
quehacer académico en la PUCP. Al 2015 la PUCP cuenta con 114 grupos registrados de
los cuales el 60% están liderados por varones y 40% por mujeres. De este universo, 76
grupos son disciplinarios y 38 interdisciplinarios.
5. BIBLIOGRAFÍA
Anker, Richard (1998), Gender and jobs: Sex segregation ofoccupations in the world, International Labour
Organization, 2 edición, Reino unido, ILO.
Bakker, Isabella. (1999), «Dotar de género a la reforma de la política macroeconómica en la era de la
reestructuración y el ajuste global», en Mujeres y economía: nuevas perspectivas para viejos y
nuevos problemas ,Icaria, Barcelona, Icaría, 245-280.
Bourdieu, Pierre. (1988), Homo academicus, segunda edición, Buenos Aires, Siglo XXI Stanford
University Press, 1 vols.
Haraway, Donna. (1995), Ciencia, cyborgs y mujeres: la reinvención de la naturaleza, Serie «Feminismos»,
1 edición, Universitat de València, 28 vols.
Lagarde, Marcela (2000), «Universidad y Democracia genérica. Claves de género para una gran
alternativa», en Colección, Educación superior, 1, Encuentro de Especialistas en Educación
Superior, 1. Mexico, 145-159.
Múnevar, Dora I. (2004), «Construcción de conocimiento desde los márgenes», Revista Colombiana de
Sociología, (23), 181-215.
Vessuri, Hebe, Canino, María V. (2006), «Igualdad entre géneros e indicadores deficiencia en
Iberoamérica», El estado de la Ciencia (12), 355-370.
PARTICIPACIÓN INMERSIVA.
LA COMUNICACIÓN DE LA CIENCIA
COMO CONSTITUYENTE DE LO SOCIAL
1. INTRODUCCIÓN
L a legitimación de la ciencia como bien social ha recaído tradicionalmente sobre
poner
las funciones
los resultados
ejercidas
científicos en explotación,
por el mundo científico, ely tecnológico,
el mundo político,
en el momento
al tratar de
regular todo el proceso. Las interrelaciones entre estos tres estamentos son difusas y
han generado desconfianza por parte de la sociedad. Los intentos de incluir al público
en este proceso han tenido una respuesta limitada ya que, al ser el proceso de
generación tecnocientífica opaco, los ciudadanos no aprecian que la participación
pueda tener efecto en él (Wilsdon & Willis, 2004, p. 18).
Con el fin de soslayar este problema, el entorno científico inició un proceso de
información a la sociedad, denominado PUS (Public Understanding of Science), orientado
a la transmisión unidireccional del conocimiento, conocido también como modelo de
déficit, ya que asumía que la sociedad presentaba déficit de conocimiento (Bodmer
1985, 31). Este modelo fracasó ya que era excluyente por diseño y evitaba el diálogo
(Gibbons et al., 1994, p.3).
El proceso, transformado en PES (Public Engagement of Science), permitió incorporar
una mayor riqueza de dimensiones en la participación (Wilsdon & Willis 2004, 17). Es
un modelo con base deliberativa que busca el diálogo. El objetivo es identificar
oportunidades para la participación del llamado público en la producción científica,
invitándole a participar en debates, discusiones o foros donde se evalúa algún
problema tecnocientífico, junto con expertos o miembros de las instituciones
gubernamentales. Este modelo se enfrenta al problema de la inclusión de actores, al
de la creación de diálogo bidireccional y al del fomento de la coproducción del
conocimiento (Gibbons et al. 1994, 34). Para resolverlo, este modelo pretende que la
acción de incluir en el proceso a la sociedad se realice en fase cada vez más tempranas
(Wilsdon & Willis 2004, 56).
La problemática del proceso participativo puede analizarse mediante el modelo de
participación material, centrado en el esfuerzo realizado por el participante (Marres
2012, 3). La participación consiste en la acción de los ciudadanos alrededor de un
problema específico, que a su vez genera la asociación ciudadana (Marres 2011). La
participación basada en actantes materiales cambia la perspectiva tradicional de
entender la participación a través de procesos deliberativos. Sin eliminar el proceso
deliberativo, otros procesos emergen mediante la agencia de diversos actantes que se
encuentran distribuidos alrededor los distintos aspectos de la vida cotidiana, como
puede ser los relacionados con el trabajo, el ocio, la economía o el entorno doméstico
y que facilitan o median para la aparición de nuevas asociaciones (Marres 2012, 186).
Los ciudadanos se adhieren o no a determinadas prácticas cambiando sus hábitos de
vida de acuerdo con el esfuerzo que se les exige y el grado de preparación que tengan
para aceptarlo.
Las aproximaciones al problema de la comunicación de la ciencia están
generalmente basadas en el evento discrecional (Bucchi & Trench 2008, 72). La propia
terminología de ciencia y sociedad agrupa dos cuerpos diferentes para los que se
pretende buscar un acercamiento, la ciencia y la sociedad. Pero la sociedad no existe
como tal, sino que se compone de conjuntos de asociaciones que se forman y
destruyen de forma dinámica (Latour 2008, 43). De la misma forma y cuando hablamos
de comunicación de la ciencia, el público no existe (Marres 2011), sino que aparece
cuando un agente mediador, o un actante, le mueve a la acción (Latour 2008, 60),
normalmente en forma de problema o amenaza (Marres 2011).
RESUMEN: La ciencia y la tecnología son bienes públicos que pueden y deben utilizarse para
aumentar el bienestar social de las personas; y resolver los problemas económicos, sociales,
culturales, ambientales y de preservación de los recursos en los problemas regionales,
nacionales y mundiales. En este texto, se describirá el desarrollo e implementación de un
modelo de comunicación intercultural de Ciencia, Tecnología e Innovación (CTI). Este modelo
se implementó en contextos culturalmente diversos, específicamente en la comunidad de San
Pedro y San Pablo Ayutla Mixe, en Oaxaca, México. A partir de esta implementación, se generó
conocimiento a través de redes sociales de innovación, que incluye: a) mecanismos para
asegurar que el conocimiento se aproveche socialmente para atender demandas analizadas
críticamente por los diferentes grupos involucrados y por medios aceptables desde el punto de
vista de quienes se beneficiarán; y b) mecanismos y procedimientos para asegurar la
participación de aquellos con problemas, desde la conceptualización y formulación hasta su
solución.
Palabras clave: modelo intercultural; comunidades indígenas; México; equidad epistémica;
diálogo.
INTRODUCCIÓN
os desafíos en las políticas públicas internacionales, buscan construir una
L
1.
nuevos talentos
cooperación efectiva
para entre la ciencia y la sociedad; Así como la contratación de
la ciencia y la igualación de la excelencia científica con la
conciencia social y la responsabilidad, a través de la comunicación. Como ejemplo de
esto, los programas transversales Horizonte 2020 incluyen «La ciencia con y para la
sociedad» (SwafS, por sus siglas en inglés); y en México, con programas nacionales que
se fundamente bajo el mismo objetivo.
Bajo este contexto, se desarrolla un modelo de comunicación intercultural de CTI,
el cual tiene como objetivo principal promover la igualdad de conocimientos y
aprendizaje multicultural estableciendo relaciones sociales más justas entre las
diferentes comunidades de las sociedades del país y la nación en su conjunto,
especialmente las comunidades indígenas. El reconocimiento y el desarrollo
progresivo de estos principios y, en general, de culturas específicas dependen de la
capacidad de dialogar y aprender de otras culturas y conocimientos (Velasco 2006).
Esto requiere la interacción entre miembros de la comunidad y especialistas de
diferentes disciplinas en procesos de comunicación que preserven e integren con
equidad y racionalidad la diversidad de conocimiento para expandir sus horizontes
culturales a través de la apropiación innovadora de conocimiento externo (Velasco
2013).
Con ello, consideramos la posibilidad de articular las innovaciones locales y los
conocimientos tradicionales con la ciencia y la tecnología. Lo anterior requiere la
capacidad de las comunidades para incorporar otros conocimientos externos en sus
prácticas de producción. Por lo general, este proceso necesita la participación de
expertos en el uso de este conocimiento, y mecanismos de apropiación (Bonfil 1991)
de ese conocimiento por la comunidad en cuestión. Esto se debe a que no se trata sólo
de adquirir conocimientos de una disciplina en particular, sino de incorporar algún
tipo de conocimiento específico en sus prácticas de producción. Para ello se requiere
la interacción entre miembros de la comunidad y especialistas de diferentes
disciplinas. Algo fundamental es que las comunidades locales y tradicionales
incorporen nuevos conocimientos con plena conciencia de lo que están haciendo y el
significado de los nuevos conocimientos científicos y tecnológicos para ampliar sus
horizontes culturales, mediante la apropiación de conocimiento externo y crear su
propio espacio. Esto significa que aprender no es sólo lo que establece la ciencia sino
que incorpora ese conocimiento en sus prácticas.
De esta manera, el texto se encuentra estructurado en tres partes. En la primera se
realiza un análisis de los modelos de comunicación de la ciencia y la tecnología. La
segunda parte se describen los planteamientos epistémicos y metodológicos de la
propuesta de un modelo intercultural de comunicación de la ciencia y la tecnología. Y
finalmente en la tercer parte, se presentan los análisis de caso en comunidades
indígenas en México.
4. ANÁLISIS DE CASO
El proyecto se desarrolló a partir de tres ejes transversales para cumplir con el
objetivo principal. Se realizaron conferencias de consenso, lo cual permitió reunir a los
grupos interesados para analizar los beneficios y consecuencias de la práctica
científica y su relación con su vida cotidiana. Posteriormente a las conferencias de
consenso se realizaron talleres en los que se discutió de manera extensa y argumentada
algunas prácticas científicas y tecnológicas que tienen implicación en la sociedad, con
la finalidad de brindar información a la comunidad. Por último, se establecieron redes
socioculturales, las cuales pretendieron realizar la apropiación del conocimiento que a
su vez generen innovaciones sociales, que surjan, se desarrollen y se implementen
dentro de la propia comunidad, en beneficio propio. En este sentido, el desarrollo de
este proyecto nos permitió: 1) Vincular las experiencias entre científicos y
ciudadanos; 2) Evaluar los indicadores de apropiación social de la ciencia y la
tecnología; y, 3) Generar redes socioculturales de innovación.
Bajo este contexto, el objetivo del primer encuentro con integrantes de la
comunidad Mixe e integrantes del Proyecto Develar y dialogar saberes, fue conocer las
demandas y los necesidades de ambas comunidades, es decir, establecer un diálogo y
establecer condiciones de equidad epistémica que permitieran reconocer las
problemáticas en las que trabajaríamos. Por ello, se enfatizó en la importancia de
conocer los temas, intereses y problemáticas a resolver; de ahí, la comunidad,
describió sus inquietudes, principalmente aspectos referentes a los alimentos,
utilización correcta de los desperdicios y la correcta utilización del agua. Por lo tanto
se llegó al acuerdo que se impartirían dos talleres relacionados con ambos tópicos. El
primero es la elaboración de un filtro de agua y el segundo la elaboración de un
deshidratador de alimentos; así mismo, se brindó una conferencia de consensos
respecto a desarrollo forestal.
Como resultado de ello, se establecieron prácticas epistémicas, así como un
diálogo deliberativo entre las comunidades científica y civil, en la cual se produjeron
manuales en mixe y castellano; así como cápsulas de radio, en las mismas lenguas.
5. CONCLUSIONES
En el interculturalismo y, en especial, el modelo intercultural no trata de imponer
un conocimiento sobre otro, sino la forma en que puedan coexistir el conocimiento
científico y tecnológico con los saberes tradicionales, ya que cada pueblo tiene sus
características propias, como tradiciones, creencias, valores, normas y costumbres;
sin embargo, el modelo que proponemos debe tener presente que las condiciones y
discusiones nunca serán similares, es decir, el modelo propuesto se utilizará en casos
particulares y específicos. De esta manera, también es importante reconocer la
importancia del desarrollo de una democracia republicana para el beneficio de la
sociedad.
En este sentido, como se ha mencionado, es muy importante ubicar que todos los
actores son sujetos epistémicos simétricos, es decir, no existe un déficit que pueda
enaltecer a los especialistas y colocarlos como expertos que deciden las innovaciones.
Todos son partícipes con sus puntos de vista en función de las razones que presenten
para resolver el problema y las razones las decide la comunidad desde una óptica
particular en donde los miembros en conjunto deciden las necesidades que la
innovación requiere.
En suma, asumir, desde la constitución del modelo, una posición intercultural en
el análisis de los conocimientos tradicionales y locales nos lleva a comprender los
procesos de innovación como aspectos particulares de cada comunidad epistémica. A
partir de este ejercicio dialógico se conforma un nuevo contexto entre las culturas
epistémicas, un encuentro de horizontes que puede ser una fuente potencial para
entablar acuerdos interpretativos en la búsqueda de los elementos mínimos que
conduzcan hacia metas comunes para la resolución de problemas concretos, en este
caso de la comunidad Mixe en el estado de Oaxaca (García-Cruz 2015).
Con este modelo, y en particular, con este caso, se pretende, además de incluir
sistemas e implementar un modelo intercultural de comunicación de la ciencia y la
tecnología, se buscan procesos en donde se genere conocimiento, a través de las redes
sociales de innovación, en las que se incluya: a) mecanismos para garantizar que el
conocimientos será aprovechado socialmente para satisfacer demandas analizadas
críticamente por los diferentes grupos involucrados, y por medios aceptables desde el
punto de vista de quienes serán beneficiados; y b) mecanismos y procedimientos que
garantizan la participación de quienes tienen los problemas, desde su
conceptualización y formulación hasta su solución.
La posibilidad de contar con innovaciones que articulen los conocimientos locales
y tradicionales con los científicos y tecnológicos requiere de la habilidad de las
comunidades para incorporar en sus prácticas productivas otros conocimientos
externos. Por lo general este proceso hace necesaria la participación de expertos en el
uso de tales conocimientos, así como mecanismos de apropiación de tales
conocimientos por parte de la comunidad en cuestión, pues no se trata solo de
adquirir el conocimiento de una determinada disciplina, y mucho menos en abstracto,
sino de incorporar cierto tipo de conocimientos específicos en sus prácticas
productivas. Esto exige la interacción entre los miembros de la comunidad y
especialistas de diferentes disciplinas. Algo fundamental es que las comunidades
locales y tradicionales incorporen los nuevos conocimientos con plena conciencia de
lo que están haciendo y de lo que significa ese nuevo conocimiento científico
tecnológico, para ampliar así su horizonte cultural, expandirlo mediante una
apropiación de conocimiento externo y adaptar en su propio espacio una cultura
científico-tecnológica. Lo cual no significa aprender solo lo que dice la ciencia sino
incorporar ese conocimiento en sus prácticas.
Algo fundamental es que las comunidades locales y tradicionales incorporen los
nuevos conocimientos con plena conciencia de lo que están haciendo y de lo que
significa ese nuevo conocimiento científico-tecnológico, para ampliar así su horizonte
cultural, expandirlo mediante una apropiación de conocimiento externo y crear en su
propio espacio una cultura científico-tecnológica (García-Cruz 2015).
6. REFERENCIAS
Andersen, I.E., Jaeger, B. (1999), «Scenario workshop and consensus conferences: towards more
democaratic decision-making», en Science and Public Policy, 26 (5), October.
Bonfil, G. (1991), «La teoría del control cultural en el estudio de procesos étnicos», en Estudios sobre
las Culturas Contemporáneas, 4 (12), México, Universidad de Colima, 165-204.
Dellamea, Amalia Beatriz (1998), «Estrategias de enseñanza y formación de recursos humanos en
divulgación científica. Algunas observaciones críticas», Ponencia presentada en las Jornadas del
Este.
Durant, John (1999), «Participatory technology assessment and the democratic model of the public
understanding of science», en Science and Public Policy, 26 (5), October.
García-Cruz, J. (2015), Hacia la construcción de un modelo de innovación intercultural. Una propuesta desde
los estudios filosóficos y sociales sobre ciencia y tecnología (Tesis de doctorado), México, UNAM.
Joss, Simon (1999), «Public participation in science and technology policy –and decision-making–
ephemeral phenomenon or lasting change?», en Science and Public Policy, 26 (5), October.
Marcos, Alfredo (2010), Ciencia y acción. Una filosofía práctica de la ciencia, México, Fondo de Cultura
Económica-Colección Breviarios.
Olivé, León (2008), La ciencia y la tecnología en la sociedad del conocimiento: Ética, Política y Epistemología,
México, Fondo de Cultura Económica.
Roqueplo, Philippe (1983), El reparto del saber, Argentina, Gedisa.
Velasco, Ambrosio (2004), «Multiculturalismo, Nación y Federalismo», en Revista Mexicana de Ciencia
Políticas y Sociales, mayo-junio (191), México-UNAM.
Velasco, Ambrosio (2004), «Toward a political philosophy of science», en Philosophy Today, 48 (5);
Academic Research Library.
Velasco, Ambrosio (2006), Republicanismo y Multiculturalismo. México: Siglo XXI.
Velasco, Ambrosio (2013), «Equidad epistémica, racionalidad y diversidad cultural» en López y
Velasco, (coords.), Aproximaciones a la filosofía política de la ciencia, México, UNAM.
EQUIVALENCIA ENTRE CAMPOS FENOMENOLÓGICOS.
EL CASO DE LA ENERGÍA QUÍMICA
RESUMEN: En este trabajo se privilegia el estudio de las reacciones químicas en relación con
otras clases de fenómenos como los eléctricos o térmicos: esto sólo es posible si se considera
que hablar de la reactividad de las sustancias requiere establecer una relación entre
fenómenos, es decir, es posible decir cuándo y cuánto reacciona una clase de sustancia con
otra, con base en la energía que se produce o trabajo que se genera. Es así como se introduce el
asunto de la transformación de energía en el campo de lo químico.
Estos procesos de teorización hacen relevante el estudio de las relaciones entre los procesos
químicos, térmicos y eléctricos que vamos a considerar inicialmente como relaciones de
simetría y de equivalencia. Para lo anterior se hace una revisión histórica de los trabajos de
Thomson, Joule, Ostwald y Gibbs lo cual amplia la comprensión y organización de las
reacciones químicas en relación con la producción de energía eléctrica o calórica, esto muestra
que para dar cuenta de un cierto dominio de la experiencia se requiere establecer una relación
con otros, así como la elaboración de nuevas síntesis con la consiguiente generación de campos
fenomenológicos amplios.
Palabras clave: Equivalencia entre fenómenos; Energía química; Enseñanza de las ciencias;
Campos fenomenológicos.
INTRODUCCIÓN
dedisciplinar:
n
y este
química,
trabajo
a¿cómo
reflexiones
se presta
ocurren
atención
de ordena una
las reacciones
epistemológico,
pregunta
químicas?
quehistórico
nos obliga,
crítico,
comopedagógico
docentes
E
1.
Abordar la anterior pregunta ha significado estudiar las rutas que siguen las
transformaciones químicas y nos ha ubicado en el campo de la actividad química. Si
estudiamos esta pregunta desde la historia de la química, vemos como se ha requerido
hacer observaciones sistemáticas y descripciones detalladas que han ido construyendo
diferentes organizaciones de las transformaciones químicas. Se ha observado que cada
sustancia se comporta de una forma diferente cuando se relaciona con otras
sustancias, mostrando diversos grados de producción o absorción de calor,
rendimiento de la reacción, velocidad de la reacción, entre otras. Desde allí surgen
interrogantes como: ¿Por qué se comportan así y no de otro modo?, ¿A qué se debe tal
comportamiento?, y ¿Por qué en algunas ocasiones reaccionan y en otras no?
Frente a estos interrogantes, en la alquimia se ha propuesto la mayor o menor
presencia de un principio en los cuerpos como la razón o explicación de dichos
órdenes. Los hombres de ciencia construyeron el concepto de afinidad que hasta el
siglo XVII se explicaba conforme a la teoría del «Amor y el odio» de Barchusen y que
posteriormente pasa a ser entendida como producto de atracciones mecánicas. Dice
Boyle al respecto: «Los cuerpos están formados por partículas en forma de racimos, no
muy estrechamente unidos, pero pueden encontrarse en contacto con corpúsculos de
otra materia que estén dispuestos a unirse más estrechamente de lo que estaban
antes». Boyle estableció que las cantidades de un cuerpo capaces de llegar a
combinarse con otro dependen del grado de simpatía o atracción; su filosofía
corpuscular va íntimamente ligada a su concepción mecánica de las reacciones
químicas. De esta manera ante las «fuerzas ocultas» de los alquimistas se ven crecer
explicaciones alternativas como la teoría corpuscular y la afinidad química entre los
cuerpos diferentes» (Villaveces, Cubillos, Andrade 1983)
Vemos que para inicios del siglo XIX la afinidad era tratada como una fuerza que
daba cuenta de por qué algunas sustancias reaccionaban con unas sustancias y con
otras no: relaciones que incluían aspectos o recurrencias metafísicas como el amor y
odio, amistades o enemistades entre sustancias, pero cuya intensidad o magnitud no
era posible de determinar, a lo sumo se pueden encontrar tablas de ordenación de las
clases de sustancias entre sí. Izquierdo y Estanny en su reconstrucción historiográfica,
afirman que Las afinidades llegan a explicar todas las combinaciones químicas y todos los
cambios en las propiedades de los cuerpos químicos; se constituyen en un sistema químico, pero
cualitativo, muy cercano a la percepción y sin modelo abstracto (Estany, Izquierdo 1990,
263)
De ahí que sea necesario tener en cuenta que el término de afinidad no ha
conservado la misma connotación en todas las épocas, las significaciones han
cambiado, e incluso a pesar que pueda ser considerado caduco en las explicaciones de
las reacciones químicas. Muchos actualmente acuden a la afinidad de una manera
obsoleta e imprecisa, pero conservando el término, y casi como una manera de pensar
una tendencia de las sustancias a reaccionar con unas y con otras no.
Casos como el señalado, merecen ser estudiados en el campo de la educación en
ciencias con la intención de subrayar que no se trata tanto de establecer las mejores
estrategias para enseñar bien un concepto, como si de ahondar en la comprensión de
los fenómenos y campos conceptuales a los que nos referimos desde las ciencias que
enseñamos.
REFERENCIAS BIBLIOGRÁFICAS
Estany, Anna, Izquierdo, Mercé (1990), «La evolución del concepto afinidad analizada desde el
modelo de S. Toulmin», LLULL (13), 349-378.
Falk, Gottfried, Herrmann, Friedrich, Schmid, G. Bruno (1983), «Energy forms or energy carriers?»,
Am. J. Phys. (51), 1074-1077.
Faraday, Michael (1946) Las fuerzas de la materia e historia química de una vela, Emecé Editores. Buenos
Aires. Argentina.
Faraday, Michael (1849), Experimental Researches, Series VII. London.
Levere, Trevor (1971), Affinity and Matter, Oxford University Press.
Ostwald, Wilhelm (1911), La Energía, Madrid, Librería Gutemberg de José Ruiz.
Ostwald, Wilhelm (1919), L’Evolution d’une science. La Chimie, Paris, Biblioteca de Filosofía Científica.
Thomson, Thomas (1827), An Outline of the Sciences ofheat and electricity, London.
Villaveces, José, Cubillos, Germán, Andrade, Eugenio (1983), Del sustancialismo al atomismo en la
química, Salamandra Andante, 2, Octubre, 1983.
DISCURSOS FILOSÓFICOS ENTORNO
A LASTECNOLOGÍAS EN COLOMBIA
RESUMEN: Esta ponencia indaga cómo ha ido emergiendo la discusión filosófica sobre la
técnica y la tecnología en Colombia, a partir de la literatura especializada, en la cual se
encontró 59 artículos sobre filosofía y tecnología en 16 Revistas colombianas, registradas y
clasificadas por Colciencias. Igualmente, varias tesis doctorales y libros en los cuales se
desarrolla la reflexión acerca de cómo la cuestión ha ido surgiendo son también parte del
análisis.
La investigación se desarrolla con dos criterios metodológicos: uno bibliométrico y el otro
filosófico. Con el primer criterio se toman principios y técnicas estadísticas, que permiten
valorar la producción, circulación, vida media de la discusión, los autores más relevantes y la
visibilidad de las tendencias filosóficas, que participan en el dialogo dentro del período de
tiempo encontrado (1964-2016). Así mismo, entiéndase por el segundo criterio, el uso de reglas
que orientan la construcción de visiones del mundo, modelos, postulados, principios, métodos
y técnicas de construcción del conocimiento en la medida que se forman comunidades
académicas. Finalmente, sobre los hallazgos se evidencia una comunidad académica en
construcción en Colombia que viene discutiendo sobre la temática
Palabras claves: filosofía; tecnología; tradición.
1. INTRODUCCIÓN
A detalla
reflexiones
lo largocomo
de la
sobre
se haelinstitucionalizando
historia
fenómeno
de las ideas
de lo
filosóficas
técnico. En
históricamente
hanconsecuencia,
existido
el estudio
desde la
Mitcham
deantigüedad
(1989)
la filosofía
de la tecnología en el siglo XIX, consolidándose en el siglo XX. Así mismo, Bunge
(1980), Quintanilla (2005), Echeverria (2003) y Jaramillo (2012), sostienen que, con la
revolución científica e industrial, con la técnica, en el siglo XIX, se crean herramientas
conceptuales para entender un tipo de racionalidad humana que modela la realidad
social.
Según Quintanilla (2005, 21, 25-43) la relevancia de los estudios filosóficos de la
tecnología se suscribía al problema de cómo transformar la realidad. Esta cuestión
aparece como secundaria si se compara con otros problemas más interesantes que
recientemente han merecido un tratamiento sistemático. Resaltando problemas
genuinos de la filosofía tales como: ¿Qué es y cómo está compuesta la realidad?, ¿Qué
podemos conocer?, ¿Qué debemos hacer y qué podemos hacer?
Estas preguntas están condicionadas por la influencia de la tecnología en la
configuración del mundo natural, social y humano en el que vivimos.
Por lo tanto, se entiende por filosofía de la tecnología, un campo especializado de
la filosofía que reflexiona los problemas epistemológicos, ontológicos, praxeológicos,
éticos y sociohistóricos del fenómeno tecnológico. Esto se evidencia por el número de
investigaciones, tesis doctorales, revistas especializadas, congresos internacionales,
entre otros, qué a causa del interés contemporáneo sobre el fenómeno tecnológico a
nivel filosófico han dado sus aportes a la historia de las ideas filosóficas.
Fuente: propia.
En cuanto a la publicación de artículos con reflexión filosóficas en temas de
tecnología [la gráfica 1], indica que más del 50% de los artículos encontrados se
concentra en 7 universidades con su respectivas revistas (Universidad de Antioquia
«Estudios de filosofía; Universidad de la Sabana «Pensamiento y Cultura»; Universidad
del Norte «Eidos»; Universidad del bosque «Revista Colombiana de Filosofía de la
Ciencia»; Universidad Javeriana «Universitas Philosophica»; Universidad Pontificia
Bolivariana «Escritos» y Universidad de Santo Tomas «Cuadernos latinoamericano de
Filosofia»).
Fuente: Propia.
Así mismo, la curva de la [gráfica 2] indica que el primer artículo sobre temas
filosóficos en tecnología data de 1964 en la revista ideas y valores de la Universidad
Nacional de Colombia, del extranjero Ulrich Klug; luego hay un periodo de 35 años en
el que no ha aparece ninguna publicación en dichas revistas. En 1984 se inicia
nuevamente de forma irregular la publicación, con cambios crecientes y decrecientes,
tal como lo indica la gráfica. Son notables los picos en los años 2004, 2012 y 2016 con
mayor número de artículos publicados en reflexiones filosóficas del tema.
4. CONCLUSIONES
De lo anterior se concluye que, la reflexión de la filosofía de la tecnología en
Colombia se inicia por autores extranjeros, cuya publicación aparece en 1964.
Igualmente tiene razón parcialmente Mitcham cuando afirma en el libro editado en
1993, que en Colombia existe reflexiones periféricas más no una tradición sobre el
tema, tal como lo indica la [gráfica 2]. Sin embargo, tal información al 2016, ha
cambiado de diagnóstico; pues esta investigación demuestra que en el país hay un
proceso de construcción de una comunidad académica que reflexiona filosóficamente
el tema a nivel institucional, especialmente en posgrados.
Pese a esto, los currículos de pregrado escasamente ofertan cátedras de filosofía de
la tecnología, a diferencia de otras temáticas más tradicionales. Otorgando un
acercamiento tardío por parte de la academia a los problemas y visiones de la filosofía
de la tecnología a la comunidad especializada.
También se identifica de la unidad analizada un trabajo interdisciplinar entre
filósofos y profesionales de otras disciplinas entorno al tema. Pues en algunos casos
filósofos con formaciones en otras áreas, logran realizar esos diálogos entre saberes.
De igual manera, hay una comunidad de profesionales no filósofos con inquietudes
filosóficas que abordan la temática, aunque no con un rigor deseado.
Finalmente, el propósito de esta investigación es contribuir con la síntesis de un
periodo de tiempo significativo para el proceso de construcción de la comunidad
académica colombiana en filosofía de la tecnología; como parte de la memoria del
debate que se está gestando. No obstante, se espera que a partir de estas reflexiones se
dé apertura a la discusión tanto a nivel nacional como internacional para el
crecimiento del tema, así como también la creación de nuevas propuestas y visiones
acerca de esta línea especializada de la filosofía.
5. REFERENCIAS BIBLIOGRÁFICAS
Bunge, Mario (1980), Epistemología, 1.ª edición, Madrid, Ariel.
Cruz Vélez, Danilo (1993), «La época de la técnica», en Cruz Vélez, Danilo, Tabula Rasa, 2.ª edición,
Bogotá, Planeta, 249-258.
– (1993), «El ocaso de los intelectuales en la época de la técnica», en Cruz Vélez, Danilo, Tabula Rasa,
2.ª edición, Bogotá, Planeta, 259-272
– (1996), «El predominio de la técnica», en Sierra Mejía, Rubén, La época de la crisis.
Echeverría, Javier (2003), La revolución tecnocientífica, 1.ª edición, España, Fondo de Cultura
Económica.
Heidegger, Martin (1951), «La pregunta por la técnica», en Heidegger, Martin (1994), Conferencias y
artículos, 1.ª edición, Barcelona, Serbal, 9-38.
Jaramillo Uribe, Juan Manuel (2012), Filosofía de la tecnología. Sus avatares, sus problemas y sus logros, 1.ª
edición, España, Editorial académica española.
Kuhn, T. (1992), La Estructura de las Revoluciones Científicas, 1.ª edición, México, Fondo de Cultura
Económica.
Mitcham, Carl (1989), ¿Qué es la filosofía de la tecnología?, 1.ª edición, Barcelona, Anthropos.
– (ed.) (1993), Philosophy of technology in Spanish speaking countries, Philosophy and technology, 1.ª
edición, Estados Unidos, Springer Science, 10 vols.
Monterrosa Ríos, Álvaro (2011), Artefactos técnicos. Un punto de vista filosófico, 1.ª edición, Medellín,
Fondo editorial ITM.
Ortega y Gasset, José (1939), «Ensimismamiento y alteración», En Ortega y Gasset, José (1964) Obras
completas, Tomo V, 6ª edición, Madrid, Revista de Occidente, 291-378.
Peña Borrero, Margarita M. (1993), «Science, technology, and society education in the Latin
American context», en Mitcham, Carl (ed.), Philosophy of technology in Spanish speaking countries,
10 vols, Philosophy and technology, 1.ª edición, Estados Unidos, Springer Science, 283-288.
Prada Rodríguez, Manuel Leonardo (2012), Danilo Cruz Vélez: Martin Heidegger y el problema de la
técnica, 1.ª edición, Bogotá, Universidad Santo Tomás.
Quintanilla, Miguel Ángel. (2005), Tecnología: un enfoque filosófico y otros ensayos de filosofía de la
tecnología. 1.ª edición, México, Fondo de Cultura Económica.
Conversaciones con Danilo Cruz Vélez. 1.ª edición, Cali, Universidad del Valle, 121-134.
Sepúlveda Fernández, Roger de Jesús. (2015), «Noción de estructura teórica en filosofía de la
tecnología». En Sepúlveda Fernández, Roger de Jesús, Discusiones filosóficas en los paradigmas de
formación administrativa. Estudio comparativo en programas de administración del eje cafetero
colombiano. 1.ª edición, Pereira, Universidad Tecnológica de Pereira, 109-131.
Ulrich Klug. (1964). «Máquinas electrónicas para la elaboración de datos en el derecho», Ideas y
Valores, (6, 21-22), 37-47.
Vargas Guillén Germán. (1999), «Fenomenología e inteligencia artificial. Los límites de la
subjetividad», Estudios de Filosofía, (19-20), 91-130.
– (2001). «Aristóteles y la automatización de la lógica. Una lectura desde la inteligencia artificial»,
Estudios de Filosofía, (23), 25-42.
– (2002). «La automatización de la silogística aristotélica. Fundamentos lógico-fenomenológicos del
autómata Silogismos», Estudios de Filosofía, (26).
– (2003), «Epistemología, tecnología y ciencias sociales». En Vargas Guillén, Germán. Tratado de
epistemología. 1.ª edición, Bogotá, Sociedad San Pablo, 148-27.
– (2004). «Filosofar: entorno virtual para el aprendizaje en el filosofar», Cuadernos de Filosofía
Latinoamericana, (25-91).
LAS FORMULACIONES INVENTIVAS
EN EL PENSAMIENTO DE SIMONDON.
CLAVES DE INTERPRETACIÓN
PARA UNANÁLISIS CULTURAL
1. INTRODUCCIÓN
E ste trabajo explora el papel de la epistemología en los procesos de invención
técnica. Para ello nos apoyamos en la obra de G.Simondon. A partir de la
producción intelectual del autor, proponemos una revisión crítica al modelo
epistémico objetivista. El fenómeno de la invención atraviesa toda su obra. Simondon
se propone desantropomorfizarlo, «aproximándose por momentos a un inmanentismo
técnico donde ubica y complejiza la pregunta por la creatividad humana en el proceso
inventivo» (Parente y Sandrone 2015, 278). En la ecuación simondoneana el sujeto que
inventa no forma parte del mismo orden de realidad que el dispositivo técnico, no en
los términos en los que se planteó un problema a resolver. Este desfasamiento
constituye una herramienta fundamental para abordar los fenómenos de invención.
Por lo que pretendemos explorar la hipótesis de que en la constitución de regímenes
de compatibilidad –a través de la formalización bajo categorías perceptivas
homogéneas– y los funcionamientos que esa disposición material invoca bajo la forma
de un esquema técnico, podemos hallar una clave interpretativa para la comprensión
de fenómenos socio-técnicos contemporáneos y el rol de la epistemología en dicho
proceso.
CONCLUSIÓN
Los modelos operatorios que Simondon integra en la cultura a través del
pensamiento técnico ayudan a comprender la trascendencia que cobra la relación
poder/saber a través de un análisis epistemológico. Es necesario partir de otra
posición filosófica donde el uso no explique la totalidad del medio sociotécnico. El
poder de pensar la invención técnica a partir de la imagen recae en las posibilidades
que emergen de una redefinición de la cultura como configuración técnica
metaestable; donde el cambio social encuentra asidero en el campo informacional que
inauguran los seres de la técnica (operación de espacialización y temporalización).El
«proceso de concretización» despliega un nuevo horizonte de reflexión que
contribuye a la desarticulación del actual modelo ontológico regido por patrones de
exclusión. El acto inventivo queda reactualizado y puesto en funcionamiento de nuevo
en el objeto técnico gracias a su dimensión comunicativa transindividual.
Una vez situada la naturaleza técnica en el centro de la reflexión cultural,
vislumbramos nuevas formas de organización en el interior de los objetos (resonancia
interna, constancia) que marcan una relación existencial con el conocimiento
adquirido. Restituir el valor epistémico del pensamiento técnico dentro de una cultura
equivale a redefinir por completo la aproximación al objeto técnico y, puede
contribuir a subvertir las relaciones de dominación política inserta en los modos de
uso. Por lo tanto, es necesario superar la barrera del humanismo consagrado que
impide redefinir culturalmente la tecnología y tecnológicamente la cultura para
contribuir así a un nuevo proceso de emancipación política todavía por comenzar.
REFERENCIAS BIBLIOGRÁFICAS
Parente, D & Sandrone, D (2015), «Invención y creatividad en los objetos industriales: exploración
de algunos problemas simondoneanos», en J. Blanco, D. Parente, P. Rodriguez y A. Vaccari (Eds)
Amar a las máquinas. Cultura y técnica en Gilber Simondon 277-301. Buenos Aires, Prometeo libros.
227-301.
Richard N., Moraga J. y Saavedra A. (2016), «El camión en la Puna de Atacama (1930-1980).
Mecánica, espacio y saberes en torno a un objeto técnico liminal», Estudios Atacameños.
Arqueología y Antropología N.° 52:89-11.
Rorty R. (2001), La filosofía y el espejo de la natutaleza, Madrid, Ediciones Cátedra.
Simondon, G. (2007), Del modo de existencia de los objetos técnicos, Buenos Aires, Prometéo.
– (2013), Imaginación e Invención, Buenos Aires, Cactus.
– (2015), La individuación a la luz de las nociones de forma e información, Buenos Aires, Cactus.
Viveiros de Castro, Eduardo (2008), La mirada del jaguar. Introducción al pensamiento amerindio, Buenos
Aires, Tinta limón.
[1] Con «teoría mecánica del conocimiento» nos referimos a la progresiva conformación de un modelo
interpretativo del conocimiento asentado en el criterio de adecuación y sostenido por procesos causales que
permiten la representación del objeto en la mente.
[2] Consideramos que el concepto de «metaestabilidad» refiere en la invención, al reclutamiento de las
potencialidades de un territorio, organizándolo por una serie de principios formales.
[3] La percepción para Simondon aparece ligada a un sistema formal integrado de imágenes que
condensan las experiencias de enfrentamiento con un problema previo. No remite al valor de adecuación de
la verdad objetiva propia de la filosofía de la representación.
LA CULTURA TECNOLÓGICA
EN EL MOVIMIENTO MAKER
RESUMEN: La difusión y apropiación social de varias tecnologías de fabricación digital de código abierto unidas a un
reverdecimiento del pensamiento DIY (Do It Yourself) han propiciado la popularización del movimiento maker a nivel mundial.
La irrupción de esta nueva filosofía en la sociedad ha puesto de relevancia el papel de las habilidades y las competencias en el
proceso de aprendizaje y ha vuelto a enfatizar el «aprender haciendo» como uno de los modos más exitosos para propiciar una
cultura tecnológica.
Esta nueva cultura maker que trata de «experimentar y aprender con la tecnología» está siendo promovida por espacios como
Fab Labs, Makerspaces o Media Labs pero también por eventos temáticos muy populares como Maker Faires o Hackatons,
además de apoyarse y organizarse a través de comunidades de interés on-line muy influyentes.
El objetivo de este artículo es analizar el surgimiento del movimiento maker y caracterizar los principales valores que
impulsan la cultura tecnológica dentro de este fenómeno global. Analizamos las oportunidades y desafíos que plantea el
fenómeno de cara a la promoción de una cultura tecnológica en la sociedad pero al mismo tiempo advertimos de los mitos que
encierra y de las visiones tecno-optimistas que alberga.
Palabras clave: P2P; difusión social; DIY; apropiación social; STEM; cultura digital.
1. INTRODUCCIÓN
D urante los últimos años hemos asistido a una popularización del movimiento maker (Dougherty 2012). Este
fenómeno ha surgido a escala global gracias a la expiración de una serie de patentes en la microelectrónica
que han posibilitado la aparición de lo que se conoce como open hardware y que ha permitido el
surgimiento de innovaciones con diseño abierto y de bajo coste. El desarrollo de nuevas tecnologías de libre acceso
en torno a la fabricación digital (Birtchnell y Urry 2013)ha ampliado considerablemente las posibilidades de
producción personalizada para la ciudadanía (Ratto y Ree 2012). Este hecho unido al florecimiento de espacios
colaborativos como Fab Labs, Makerspaces o Media Labs, donde se trabaja en diversos proyectos en un régimen de
producción social y con una marcada orientación hacia necesidades sociales, ha permitido toda una nueva ola de
innovación colaborativa basada en la producción social de tecnologías no propietarias.
3. POPULARIZACIÓN Y DIFUSIÓN
La popularización del movimiento maker se ha producido por una combinación de factores como son el efecto
red (Farrell y Klemperer 2007; Klemperer 2006), la popularización de diversas comunidades on-line (Li y Bernoff,
2009; Rheingold, 1996) y la irrupción de innumerables espacios donde se realizan actividades orientadas a
interactuar con este tipo de tecnologías no propietarias y de bajo coste (Niaros, Kostakis, y Drechsler 2017). Es el
caso de Media Labs, Fab Labs, Makespaces, Hackerspaces y un largo etcétera. Algunos de estos espacios pertenecen
a redes más formales como es el caso de los Fab Labs, los cuales surgen a principios del año 2000 de la iniciativa de
Neil Gershenfeld, director por aquel entonces del Center for Bits and Atoms (CBA) del Massachusetts Institute of
Technology (MIT). Gracias a la financiación que recibe el CBA por parte de la National Science Foundation (NSF) y
la colaboración que inicia con el Grasroots Invention Group se adquieren una serie de máquinas que permiten
«fabricarlo casi todo» (Gershenfeld 2005). Y es a partir de la primera fundación de este laboratorio cuando se
desarrollan otros a partir de 2002 en países como la India o Noruega. A la creación de estos espacios les sigue el
desarrollo de varios materiales didácticos que el propio Neil desarrolla para dar a conocer el funcionamiento de
las máquinas que componen un Fab Lab e introducir los conceptos de fabricación digital y open hardware. Estos
materiales son los que posteriormente formarán parte de lo que se conoce como «Fab Academy»; un programa de
formación a distancia y específico, que permite formar y certificar a las personas que lo deseen en las
herramientas que se disponen en estos espacios de co-creación[2].
Otras iniciativas como los Makerspaces o Hackerspaces no han conllevado el establecimiento de una red
formal como la de los Fab Labs, ya que este tipo de espacios deben disponer de una serie de equipamiento
específico para poder pertenecer a la red, pero también han experimentado un crecimiento notable durante los
últimos años. Este tipo de laboratorios urbanos también se caracterizan por disponer de una serie de facilidades y
herramientas que permiten a diversas personas familiarizarse con las nuevas tecnologías de código libre, y
también desarrollan diversas actividades formativas como cursos, seminarios, eventos, etc. además de la
realización de proyectos colaborativos. En este tipo de laboratorios se suelen utilizar metodologías de aprendizaje
cooperativo que se apoyan a su vez en el uso de software y hardware libre. La popularización de estos espacios ha
sido manifiesta durante los últimos años y ha adquirido una presencia más que notable en diversas ciudades por
todo el planeta. No en vano, actualmente el número de Fab Labs activos por todo el mundo que recoge la
plataforma de fablabs.io es de 1.150 laboratorios[3]. Otro tanto podemos decir de los espacios de creación digital
no adscritos a la red del MIT, ya que en la wiki colaborativa de Hackerspaces el número llega hasta los 1.355
laboratorios activos[4].
Por su parte, eventos como la Maker Faire también han ayudado a la popularización de la cultura maker. Este
festival surge en 2006 de la mano de la famosa revista Make (Sivek 2011), para «celebrar el movimiento maker»[5]
y dar visibilidad a todos esos proyectos que han sido concebidos bajo la filosofía DIY pero que no tienen
visibilidad, ya que han sido desarrollados en garajes, cocinas o locales de barrio. A lo largo de los últimos años este
tipo de ferias se han convertido en todo un fenómeno, con gran asistencia de público y se han consolidado en
multitud de localizaciones por todo el planeta. Sólo en nuestro país se han desarrollado eventos de este tipo en
ciudades como Barcelona, Bilbao, León, Madrid o Santiago de Compostela.
4. CULTURA TECNOLÓGICA
Como hemos visto, el «movimiento maker» va más allá de un colectivo con grandes habilidades digitales para
desarrollar proyectos colaborativos en entornos físicos y digitales. Es habitual encontrar una fuerte carga
ideológica en la mayoría de los espacios maker en los que se resaltan valores como la cooperación, la producción
social entre iguales, el acceso al conocimiento, la promoción de la innovación, el rechazo de la propiedad
intelectual, etc. Creemos por tanto que es necesario analizar los valores que se promueven con el objetivo de
entender el sentido de la cultura tecnológica que se promueve. Para ello, prestamos atención a la definición de
M.A. Quintanilla (2005) el cual la define como «la información representacional, práctica o valorativa que
comparten los miembros del grupo y que son potencialmente relevantes para la creación, producción, posesión o
utilización de tecnologías o sistemas tecnológicos» (Quintanilla 2005, 255)
Además, Quintanilla (2005) establece tres componentes de la cultura tecnológica:
• La información representacional, tales como conocimientos, creencias y representaciones conceptuales o
simbólicas de las técnicas.
• La información práctica, que incluye hábitos, reglas de comportamiento y habilidades técnicas específicas.
• La información valorativa, en la que se incluyen fines, valores y actitudes relativos al diseño, uso, etc. de
sistemas técnicos y de conocimientos técnicos.
Estos 3 componentes se pueden presentar en dos modalidades; aquellos que están incorporados a sistemas
técnicos y aquellos otros que no lo están, a pesar de ser parte de la cultura técnica de un grupo social. Así,
diferenciamos entre cultura técnica en sentido estricto y de cultura técnica en sentido lato (Quintanilla 1998) y
podemos hablar de cultura técnica incorporada como «la información cultural (representacional, práctica o
valorativa) que el agente u operador del sistema debe tener para que el sistema funcione adecuadamente»
(Quintanilla 2005, 256) y de cultura técnica no incorporada «cuando se trata de elementos culturales relacionados
con el uso, producción, etc. de sistemas técnicos, pero que no son esenciales para el correcto funcionamiento de
éstos». (Quintanilla 2005, 256).
Como es de suponer, las fronteras entre estos dos tipos de culturas no es algo rígido, ya que el desarrollo y
difusión de las tecnologías propicia la adquisición de contenidos culturales por parte de los sistemas técnicos y
éstos a su vez generan nuevos rasgos técnico-culturales en sentido lato (Quintanilla 1998). Este es el caso que nos
ocupa, ya que podemos observar claramente como la fuerte carga ideológica que presenta el movimiento maker
propicia unos rasgos de cultura tecnológica no incorporada que determinan el uso y disfrute de las tecnologías
libres que se utilizan. La dimensión axiológica o valorativa de la cultura tecnológica se pone de relevancia a la
hora de utilizar las tecnologías open source con las que el fenómeno ha ido creciendo.
Como es bien sabido los factores culturales tienen una gran influencia sobre los procesos de innovación
(Echeverría 2008; Toboso-Martín 2014) y por ello también nos gustaría prestar atención a la propuesta de
Quintanilla que propone para calcular el nivel de innovación de un grupo social (empresa, país región, etc.) y que
articula en torno a dos factores; la capacidad de innovación tecnológica (cultura tecnológica incorporada) y la
propensión a innovar (cultura tecnológica no incorporada), las cuales el autor resume en la frase «no basta con
poder innovar, es preciso además querer» (Quintanilla 2005).
Y es que favorecer una cultura que propicie comportamientos de cara a la difusión del conocimiento, el trabajo
cooperativo, la promoción de la creatividad, etc., es un factor clave a la hora de abrazar una transición hacia una
sociedad de la innovación y del conocimiento (Innerarity & Gurrutxaga 2009; Olivé 2005). Esta es quizás la mayor
aportación del movimiento maker, ya que desde una dimensión axiológica de la tecnología ha favorecido el
desarrollo de innovaciones por parte de actores no habituales, contribuyendo a una democratización de la
tecnología (Smith, 2017; Tanenbaum, Williams, Desjardins, y Tanenbaum 2013) y a una socialización de la I+D que
ha conllevado un giro hacia una fabricación social (Tabarés-Gutiérrez 2016; Tabarés-Gutiérrez, Sopelana, García, y
Moreno-Valdés 2016)
5. CONCLUSIONES
Como hemos podido repasar en las anteriores secciones de este artículo el movimiento maker presenta un
gran potencial de cara a promover una cultura de la innovación en la sociedad por la dimensión axiológica de la
tecnología que conlleva. En este sentido quizás haya sido el sector educativo (Martin 2015) el que más atención
haya prestado a las posibilidades que plantea la cultura maker a la hora de repensar los métodos de aprendizaje
actuales en Ciencia y Tecnología enfatizando los valores que están circunscritos en este movimiento global. La
popularización de las narrativas de poder que acompañan a la producción de artefactos a través del uso de
tecnologías de fabricación digital (Halverson y Sheridan 2014) constituye un elemento que facilita el
empoderamiento, habilidades y competencias de los estudiantes, aunque al mismo tiempo también existe el
peligro de que la incorporación de este tipo de tecnologías y/o espacios en las aulas se haga bajo un enfoque
tecno-centrista y simplista, en vez de uno axiológico y holístico.
Este tipo de espacios y dinámicas proveen de numerosas oportunidades para la ciudadanía a la hora de volver
a reconectarla con las actividades de manufactura que han sido desterradas del centro de las ciudades y de
muchos de los países con economías avanzadas, al igual que promueven una actitud más crítica para con la
tecnología, fomentan el desarrollo de competencias digitales, un aprendizaje basado en proyectos colaborativos,
etc. Pero por otro lado debemos recordar que las principales barreras de uso de este tipo de tecnologías no residen
en el coste sino en el acceso al conocimiento (Morozov 2014), el cual se ha vuelto más fragmentado y disperso
gracias a la pléyade de plataformas que han surgido a partir de la explosión de la Web 2.0 (Tabarés-Gutiérrez
2015). Por ello, no debemos caer en visiones tecno-utópicas (Sivek 2011) para esta filosofía sino prestar atención a
las necesidades locales y sociales en las que se circunscriben estos espacios.
6. BIBLIOGRAFÍA
Atkinson, Paul (2006), «Do It Yourself: Democracy and Design», Journal of Design History, 19 (1), 1-10,
http://doi.org/10.1093/jdh/epk001.
Benkler, Yochai (2006), The Wealth of Networks: How Social Production Transforms Markets and Freedom, New Haven y Londres, Yale
University Press.
Birtchnell, Trevor, y Urry, John (2013), «Fabricating Futures and the Movement of Objects», Mobilities, 8, 388-405,
http://doi.org/10.1080/17450101.2012.745697.
Dafermos, George (2015), «Transforming the productive base of the economythrough the open design commons and distributed
manufacturing», The Journal of Peer Production, (7). Accesible en http://peerproduction.net/issues/issue-7-policies-for-the
commons/peer-reviewed-papers/distributed-manufacturing/.
Dougherty, Dale (2012), «The Maker Movement», Innovations: Technology, Governance, Globalization, 7, 11–14,
http://doi.org/10.1162/INOV_a_00135.
Echeverría, Javier (2008), «El manual de Oslo y la innovación social», Arbor, 184 (732), 609-618, Accesible en
http://arbor.revistas.csic.es/index.php/arbor/article/viewArticle/210.
Farrell, Joseph, y Klemperer, Paul (2007), «Coordination and lock-in: Competition with switching costs and network effects»,
Handbook of Industrial Organization, 3, 1967-2072.
Ferger, Amber, Lau, Wai, Ross, Philipp, Zhao, Wyman, Sayama, Hiroki, y Rasmussen, Steen (2013), «Impact of Personal Fabrication
Technology on Social Structure and Wealth Distribution: An Agent-Based Simulation Study», Advances in Artificial Life, ECAL
2013,521-522, http://doi.org/10.7551/978-0-262-31709-2-ch075.
Fox, Stephen (2014), «Third Wave Do-It-Yourself (DIY): Potential for prosumption, innovation, and entrepreneurship by local
populations in regions without industrial manufacturing infrastructure», Technology in Society, 39, 18-30,
http://doi.org/10.1016/j.techsoc.2014.07.001.
Gershenfeld, Neil (2005), Fab: The coming revolution on your desktop – From personal computers to personal fabrication, New York, Basic
Books.
Halverson, Erica R., y Sheridan, Kimberly (2014), «The Maker Movement in Education», Harvard Educational Review, 84 (4), 495-504,
http://doi.org/10.17763/haer.84.4.34j1g68140382063.
Himanen, Pekka (2002), La ética del hacker y el espíritu de la era de la información, Barcelona, Destino.
Innerarity, Daniel, y Gurrutxaga, Ander (2009), ¿Cómo es una sociedad innovadora?, Zamudio, Innobasque.
Klemperer, Paul (2006), «Network Effects and Switching Costs: Two Short Essays for the New Palgrave», SSRN Electronic Journal,
http://doi.org/10.2139/ssrn.907502.
Kostakis, Vasilis, y Papachristou, Marios (2014), «Commons-based peer production and digital fabrication: The case of a RepRap
based, Lego-built 3D printing-milling machine», Telematics and Informatics, 31, 434-443,
http://doi.org/10.1016/j.tele.2013.09.006.
Kuznetsov, Stacey y Paulos, Eric (2010), «Rise of the Expert Amateur: DIY Projects, Communities, and Cultures», en Proceedings of
the 6th Nordic Conference on Human-Computer Interaction: Extending Boundaries, 295-304, ACM.
Li, Charlene y Bernoff, Josh (2009), Marketing in the Groundswell, Boston, Harvard Business Press.
Lindtner, Silvia (2014), «Hackerspaces and the Internet of Things in China: How makers are reinventing industrial production,
innovation, and the self», China Information, 28, 145-167, http://doi.org/10.1177/0920203X14529881.
Lindtner, Silvia (2015), «Hacking with Chinese Characteristics: The Promises of the Maker Movement against China’s Manufacturing
Culture», Science, Technology & Human Values, 40 (5), 1-26.
Lipson, Hod y Kurman, Melba (2010), Factory @ Home: The Emerging Economy of Personal Fabrication, A report commissioned by the US
Office of Science and Technology Policy.
Martin, Lee (2015), «The Promise of the Maker Movement for Education», Journal of Pre-College Engineering Education Research (J-PEER),
5(1), http://doi.org/10.7771/2157-9288.1099
Morozov, Eugeny (2014) «Making It», The New Yorker, Accedido el 12 de Abril de 2016 desde
http://www.newyorker.com/magazine/2014/01/13/making-it-2
Mota, Catarina (2011), «The Rise of Personal Fabrication», en Proceedings of the 8th ACM conference on Creativity and cognition, 279-288,
ACM.
Niaros, Vasilis, Kostakis, Vasilis, y Drechsler, Wolfgang (2017), «Making (in) the Smart City: The Emergence of Makerspaces»,
Telematics and Informatics, http://doi.org/10.1016/j.tele.2017.05.004.
Olivé, León (2005), «La cultura científica y tecnológica en el tránsito a la sociedad del conocimiento», Revista de La Educación Superior,
XXXIV (4) (136), 49-63, accesible en http://www.redalyc.org/html/604/60413604/.
Quintanilla, Miguel A. (1998), «Técnica y cultura», Teorema, XVII, 49-69. accesible en http://www.oei.es/salactsi/teorema03.htm.
Quintanilla, Miguel A. (2005), Tecnología: Un enfoque filosófico y otros ensayos de filosofía de la tecnología, Mexico D.F., Fondo de Cultura
Económica.
Ratto, Matt y Ree, Robert (2012), «Materializing information: 3D printing and social change», First Monday, 17 (7), 1-25.
Rheingold, Howard (1996), La comunidad virtual: una sociedad sin fronteras, GEDISA.
Sivek, Susan C. (2011), «We Need a Showing of All Hands»: Technological Utopianism in MAKE Magazine, Journal of Communication
Inquiry, 35, 187-209, http://doi.org/10.1177/0196859911410317.
Smith, Adrian (2017), Social Innovation , Democracy and Makerspaces, SPRU Working Paper Series (SWPS), 2017-10 N.º 1-18,
http://doi.org/10.13140/RG.2.2.30640.35843.
Sun, Yuling, Lindtner, Silvia, Ding, Xianghua, Lu, Tun, y Gu, Ning (2015), «Reliving the Past & Making a Harmonious Society Today: A
Study ofElderly Electronic Hackers in China», en Cscw 2015, 3933-3942, Vancouver, http://doi.org/10.1145/2675133.2675195.
Tabarés-Gutiérrez, Raúl (2015), La Belleza del Código: Influencia de la Web 2.0, los medios sociales y los contenidos multimedia en el desarrollo
de HTML5, Universidad de Salamanca, Accesible en http://dsp.tecnalia.com/handle/11556/190.
Tabarés-Gutiérrez, Raúl (2016), «Approaching maker’s phenomenon», Interaction Design and Architecture(s), (30), 19-29.
Tabarés-Gutiérrez, Raúl, Sopelana, Amaia, García, Jorge, y Moreno-Valdés, María T., (2016), «Social Manufacturing: Towards the
popularization of personalized fabrication», en Science and Technology by Other Means – Exploring collectives, spaces and futures
EASST / 4S 2016, Barcelona, accesible en
https://www.researchgate.net/publication/311739460_Social_Manufacturing_Towards_the_popularization_of_personalized_fabrication.
Tanenbaum, Joshua G, Williams, Amanda M, Desjardins, Audrey, y Tanenbaum, Karen (2013), «Democratizing technology: pleasure,
utility and expressiveness in DIY and maker practice», en Proceedings of the SIGCHI Conference on Human Factors in Computing
Systems, 2603-2612, Paris, http://doi.org/10.1145/2470654.2481360.
Toboso-Martín, Mario (2014), «Perspectiva axiológica en la apropiación social de tecnologías», Revista Iberoamericana de Ciencia,
Tecnología Y Sociedad, 9 (25), 1-18.
[1] P2P es el acrónimo de Peer to Peer en inglés
[2] Se puede consultar la página de la Wikipedia en castellano para conocer más información sobre la iniciativa Fab Lab
https://es.wikipedia.org/wiki/Fab_lab [Consultado el 13/6/17]
[3] En este enlace se puede consultar la cifra actualizada en todo momento https://www.fablabs.io/labs [Consultado el 13/6/17]
[4] La referencia se puede consultar en el siguiente enlace https://wiki.hackerspaces.org/List_of_Hacker_Spaces [Consultado el 13/6/17]
[5] Una pequeña reseña de la historia del evento Maker Faire se puede encontrar en su propia página web
https://makerfaire.com/makerfairehistory/[Consultado el 13/6/17]
FILOSOFÍA EN COOPERACIÓN LATINOAMERICANA:
INNOVACIÓN POST-CIENCIA/TECNOLOGÍA
4. REFERENCIAS BIBLIOGRÁFICAS
Blondel, Maurice (1973), L’Action (1893). Essai d’une critique de la vie et d’une science de la pratique,
Paris, Presses Universitaires de France.
Catálogo de Proyectos de Investigación (2017), Por una Santo Tomás humanista, innovadora y
emprendedora, Bogotá, Universidad Santo Tomás, Vicerrectoría Académica General – Unidad de
Investigación.
Heidegger, Martin (2001), Conferencias y artículos, Barcelona, Ed. del Serbal. Disponible también en
%20LA%20PREGUNTA%20POR%20LA%20T%C9CNICA.pdf
http://www.bolivare.unam.mx/cursos/TextosCurso10-1/HEIDEGGER-
Kant, Immanuel (2007), Fundamentación de la metafísica de las costumbres, San Juan-Puerto Rico, Ed.
Pedro M. Rosario Barbosa.
Ladrière, Jean (1984), L’articulation du sens: I. Discours scientifique et parole de la foi, Paris, Éd. du Cerf.
Merino, Patricio (2014), La categoría teológica «Signos de los Tiempos» desde el Concilio Vaticano II al
Pentecostés de Aparecida y Francisco, Bogotá, Ed. USTA.
Ricoeur, Paul (1997), «Sobre un autorretrato de Rembrandt» en G. Aranzueque, Horizontes del relato:
lecturas y conversaciones con Paul Ricœur, Madrid, Universidad Autónoma de Madrid Ed.
Tell, María B. (2015), Tras la huella del testimonio. Estudio filosófico sobre los silenciosos alcances de la
antropología hermenéutica de Paul Ricoeur, Salamanca, Servicio de Publicaciones UPSA.
CIENCIA CON Y PARA LA SOCIEDAD:
EL ROL DE LA CIUDADANÍA EN EL ENFOQUE DE
INVESTIGACIÓN E INNOVACIÓN RESPONSABLES (RRI)
3. REFERENCIAS BIBLIOGRÁFICAS
Bush, Vannevar (1945), Science: The Endless Frontier, Washington, National Science Foundation.
Comisión Europea (1984), Decisión n.º1110/94/CE del Parlamento Europeo y del Consejo de 26 de abril de
1994 relativa al cuarto programa marco de la Comunidad Europea para acciones comunitarias en
materia de investigación y desarrollo tecnológicos y demostración (1994-1998), Luxemburgo, Diario
Oficial de las Comunidades Europeas, L126/1-L126/33.
Comisión Europea (1985), Towards a European Technology Community. Memorandum. COM(85) 350 final,
Luxemburgo, Comunication of the Commision to the Council.
Comisión Europea (1996), «Inventar el mañana»: la investigación europea al servicio del ciudadano,
Comunciación COM(96) 332 final, Luxemburgo, Commission of the European Communities.
Comisión Europea (1997), Decisión del Parlamento Europeo y del Consejo de 30 de abril de 1997 relativa al
quinto programa marco de la Comunidad Europea para acciones de investigación, desarrollo tecnológicos
y demostración (1998-2002), Luxemburgo, Diario Oficial de las Comunidades Europeas.
Comisión Europea (2002a), Decisión n.º1513/2002/CE del Parlamento Europeo y del Consejo de 27 de junio
de 2002 relativa al cuarto programa marco de la Comunidad Europea para acciones de investigación,
desarrollo tecnológicos y demostración, destinado a contribuir a la creación del Espacio Europeo de
Investigación y a la innovación (2002-2006), Luxemburgo, Diario Oficial de las Comunidades
Europeas, L231/1-L231/33.
Comisión Europea (2002b), Science and Society Action Plan, Luxemburgo, Office for Official
Publications of the European Communities.
Comisión Europea (2006), Decisión n.º1986/2006/CE del Parlamento Europeo y del Consejo de 18 de
diciembre de 2006 relativa al Séptimo Programa Marco de la Comunidad Europea para acciones de
investigación, desarrollo tecnológicos y demostración (2007-2013), Luxemburgo, Diario Oficial de las
Comunidades Europeas, L412/1-L412/41.
Comisión Europea (2007), Science in Society, Luxemburgo, Office for Official Publications of the
European Communities.
Comisión Europea (2010), Work Programme, Part 5: «Science in society», Luxemburgo, Office for Official
Publications of the European Communities.
Comisión Europea (2013), Responsible Research & Innovation, Disponible en:
https://ec.europa.eu/programmes/horizon2020/en/h2020-section/responsible-research
innovation. Último acceso: 16/10/17.
Comisión Europea (2016), Horizon 2020. Work Programme 2016-2017, Luxemburgo, Office for Official
Publications of the European Communities.
Durant, John (1999), «Participatory technology assessment and the democratic model of the public
understanding of science», Science and Public Policy, (26)5, 313-319.
Eizagirre, Andoni, Rodríguez, Hannot, Ibarra, Andoni (2017), «Politicizing Responsible Innovation:
Responsibility as Inclusive Governance», International Journal of Innovation Studies, 1(1), 20-36.
MINECO (2014), H2020: Guía del participante, Madrid, Centro para el Desarrollo Tecnológico
Industrial.
Rip, Arie (2014), «The past and future of RRI», Life sciences, society and policy, 10(1), 17-32.
Wickson, Fern, Wynne, Brian (2012), «Ethics of science for policy in the environmental governance
ofbiotechnology: MON810 Maize in Europe», Ethics, Policy y Environment, 15(3), 321-340.
AGRADECIMIENTOS
La presente comunicación nace en el marco del proyecto Representación y
anticipación: modelización interventiva RRI en las ciencias y técnicas emergentes (FFI2015
69792-R. MINECO) y ha sido subvencionado por el Ministerio de Industria, Economía y
Competitividad de España a través de la concesión al autor de una ayuda predoctoral
para la Formación de Personal Investigador (BES-2016-079192).
USO Y PERCEPCIÓN DE LASTIC
PARA EL EMPODERAMIENTO
(1) Universidad Autónoma de Baja California Sur, La Paz, Baja California Sur, México
jaquellinevalenzuela@gmail.com
(2) Universidad Autónoma de Baja California Sur, La Paz, Baja California Sur, México
grovira@uabcs.mx
REFERENCIAS BIBLIOGRÁFICAS
Amorós, C (2008), Mujeres e imaginarios de la globalización. Reflexiones para una agenda teórica global del
feminismo, Rosario, Editorial Homosapiens.
Bourdieu, Pierre (1992), Sobre el Estado: Cursos en el College de France (1989-1992), Barcelona,
Anagrama.
DOI: http://dx.doi.org/10.1787/9789264239555-en
Davis, F. (1989), Perceived Usefulness, Perceived Ease of Use, and User Acceptance of information
Technology. Mis Quartely, International Journal ofman-Machine Studies, Academic Press
Echeverría J. (2008), «Las TIC en las relaciones entre Europa y Latinoamérica», Riev. Int. Est. Vascos
(55) 1, 2010, 61-9, UPV/EHU, IKERBASQUE Basque Foundation for Science.
Haraway, Donna (1991), A Cyborg Manifesto: Science, Technology, and Social-Feminism in the Late
Twentieth Century, The Haraway Reader, Routledge.
Hassan y Martin (2005), Más allá de la usabilidad: interfaces «afectivas», No solo usabilidad e-magazine.
OECDwww.nosolousabilidad.com/articulos/interfaces_afectivas.htm
(2015), Students, Computers and Learning: Making the Connection, OECD Publishing, Paris.
Hayles, K (2010), How we think: Digital Media and Contemporary Technogenesis, Chicago, The
University of Chicago Press.
Schuler, M (1997), Los derechos de las mujeres son derechos humanos: la agenda internacional del
empoderamiento, en poder y empoderamiento de las mujeres, TM editores
Toboso, M. (2013), «Entre el uso y el no uso de la tecnología: un enfoque discursivo de la
apropiación tecnológica», Intersticios. Revista Sociológica de Pensamiento Crítico, Vol. 7 (2), pp. 201
214. http://www.intersticios.es/article/view/11662.
Toboso, M. y Estévez, B. (2011), «Propuesta de un sistema de indicadores de apropiación social de
tecnologías y su relación con dinámicas de innovación social», en E. Apodaka, L. Merino y M.
Villarreal (eds.), Crisis y mutaciones de la «expertise». Escenarios, políticas y prácticas del conocimiento
experto, Bilbao, Ed.Ascide.
Von Hippel, E. (2005), Democratizing innovation, Cambridge (MA), MIT Press.
http://web.mit.edu/evhippel/www/books/DI/DemocInn.pdf
INTERDISCIPLINARIEDAD DEL DISEÑO
DE INFORMACIÓN EN LA RE-DEFINICIÓN
DE LA CULTURA CIENTÍFICA Y TECNOLÓGICA DE LA CIENCIA
DE LA INFORMACIÓN
Maria José VICENTINIJORENTE (1), Dunia LLANES PADRÓN (2), Natalia NAKANO (3),
Mariana CANTISANI PADUA (4)
3. CONSIDERACIONES FINALES
El diseño de Información surge como disciplina capaz de proporcionar
metodologías para la organización del conocimiento en sistemas digitales
colaborativos. Los procesos de diseño son interactivos, poseen una planificación para
la revisión y mejora de los sistemas, a través de la evaluación y de la realización de
modificaciones en el sistema con la finalidad de obtener mayor control de la eficacia y
la eficiencia de las affordances, o sea, el individuo desempeña una tarea e interactúa
con el sistema y debe hacerla con el menor esfuerzo físico y cognitivo posible. La
actuación de los diseñadores debe ir más allá del desarrollo de interfaces gráficas GUI
(Graphic User Interface); además de la presentación de las informaciones, el diagrama
de datos, las familias tipográficas y las normas cromáticas, los diseñadores, también,
se comenzaron a preocupar con la organización de la información, el orden, la
categoría de los datos (metadatos) y la taxonomía de términos.
La ciencia tiene, en la posmodernidad, el desafío de buscar nuevas hipótesis,
situadas en el contexto pos-industrial y del capitalismo fluidificado en la disolución de
las principales narrativas o meta-narrativas de la modernidad. Las competencias y las
habilidades humanas, así como las creencias culturales, condicionan las miradas y la
percepción de lo posible en los códigos de comunicación. Por otra parte, las
informaciones elaboradas como estructuras sistémicas crean dinámicas que implican
la mutualidad entre los sujetos y los ambientes de información, de la cual emergen
nuevas conformaciones representacionales y de presentación de la información. En
este escenario, la ciencia debe contribuir al estudio de los problemas levantados de las
interacciones para la socialización inclusiva de la información y la deseable
efectividad en la re-elaboración de la identidad de la cultura occidental.
4. REFERENCIAS BIBLIOGRÁFICAS
Belkin, N.; Robertson, S. (1976), Information Science and the Phenomenon of Information, Journal of
the American Society for Information Science, Jul./au, v.34, n.4, p 197-204.
Borko, H. (1968), Information science: whatis it?, American Documentation, Jan.
Buckland, M.K. (1991), Information as thing, Journal of the American Society for Information Science,
v.45, n.5, p.351-360. (Tradución libre de Luciane Artêncio)
Hjørland, B. (2003), Fundamentals of knowledge organization, Knowledge Organization, v.30,n.(2), 87
111.
Horn, R. E. (1999), Information design: emergence of a new profession, en Jacobson, Robert (ed.).
Information design. Cambridge (MA), The MIT Press.
Maffesoli, M. (1987), O tempo das tribos: O declínio do individualismo nas sociedades de massa, Rio de
Janeiro, Forense-Universitária.
Nelson, L. M. (1999), Collaborative problem solving, en C. M. Reigeluth (Ed.), Instructional design
theories and models: A new paradigm ofinstructional theory, Mahwah, NJ, Lawrence Erlbaum.
O’Reilly, T. (2005), What Is Web 2.0 – Design Patterns and Business Models for the Next Generation of
Software, O’Reilly Publishing.
Wersig, G. (1993), Information science: the study of postmodern knowledge usage, Information
Processing & Management, v.29, n.2.
Wersig, G.; Neveling, U. (1975), The phenomena of interest to information science, The Information
Scientist, v.9, n.4, p. 127-140.
Wurman, R. S. (1999), Information Architects, New York, Watson-Guptill.
SOBRE LA TENSIÓN ENTRE LA CIENCIA ABIERTA Y EL
REQUISITO DE NOVEDAD
EN LA PATENTE
1. INTRODUCCIÓN
L a patente es un instrumento jurídico que, durante un determinado lapso de
tiempo, le otorga a su titular la facultad de prohibir que terceros, sin su
autorización, realicen actos de explotación de la invención. Para adquirir dicha
facultad, es necesario que el inventor revele, en términos inteligibles, que se ha
creado algo nuevo con nivel inventivo y aplicación industrial. El incumplimiento de
cualquiera de estos tres estándares internacionales de patentabilidad –novedad, nivel
inventivo y utilidad– puede frustrar la concesión de una patente. En este trabajo se
pretende analizar la tensión que el requisito de novedad exigido en la patente impone
al concepto de «ciencia abierta».
2. LA PATENTE
La patente es un instrumento jurídico que, durante un determinado lapso de
tiempo, le otorga a su titular la facultad de prohibir que terceros, sin su autorización,
realicen actos de explotación de la invención. Para adquirir dicha facultad, es
necesario que el inventor revele, en términos inteligibles, que se ha creado algo nuevo
con nivel inventivo y aplicación industrial. El incumplimiento de cualquiera de estos
tres estándares internacionales de patentabilidad –novedad, nivel inventivo y
utilidad– puede frustrar la concesión de una patente. En este trabajo se analizará la
tensión que el requisito de «novedad» exigido en la patente impone al concepto de
«ciencia abierta», el cual debería ser parte fundamental del trabajo científico.
3. CIENCIA ABIERTA
Según la OCDE (2015):
«El término [ciencia abierta] se refiere a los esfuerzos realizados por los investigadores, los
gobiernos, las agencias de financiamiento público o la comunidad científica para hacer que
los resultados primarios de la investigación financiada con fondos públicos –las publicaciones
y los datos de investigación– sean accesibles de manera pública en formato digital, con una
restricción lo más pequeña posible, como un medio de acelerar la investigación»
Diferimos de esta definición por el carácter ambiguo que muestra, al permitir que
las restricciones establecidas sobre el uso de los resultados de investigación
financiados con fondos públicos sean «lo más pequeña[s] posible». Por tanto,
definiremos en este trabajo a la ciencia abierta de una manera más concreta pero
también más robusta: la ciencia abierta es aquella que permite no solamente la
comunicación libre de los resultados de investigación, sino también su uso libre.
Sin embargo, los canales «naturales» de comunicación de resultados de
investigación –conferencias, seminarios, talleres, congresos, revistas científicas– se
perfilan, en consecuencia, como los escenarios propicios para anular la novedad como
requisito; comunicar o compartir resultados de investigación hace imposible
patentarlos. Para «salvar las apariencias», restándole toda carga negativa a la
inobservancia de la norma ética del «comunalismo» (Merton 1973), y para justificar la
protección de los resultados de investigación a través de derechos de propiedad
intelectual, se subordina la publicación de dichos resultados a la patente, es decir, se
establece una lógica de «patentar y luego publicar» (Blumenthal et al. 1997; Campbell
et al. 2002; Blumenthal et al. 2006; Penin 2009; Gans et al. 2014; Walsh & Huang 2014).
De esta forma, se termina incentivando el secreto en la ciencia, al favorecer la
publicación tardía de los resultados de investigación con el objetivo de obtener una
patente.
Al investigador se le otorga una patente por revelar conocimiento útil que, de otra
forma, permanecería en secreto. Arrow (1962) consideraba que la patente era una
forma subóptima de uso de recursos, pues debido al «efecto red» (Gilder 1993) el
conocimiento tiene un rendimiento exponencial asociado al número de usuarios
puedan tener acceso a él. Por tanto, mientras más exitosa en términos económicos sea
una invención para su propietario, menos utilidad podrá extraer la sociedad de ella. El
gran aporte de Arrow a la propiedad intelectual desde la economía, es dar cuenta de la
gran paradoja que la información como producto presenta: para poder realizar una
transacción, un comprador debe poder ver el producto que el vendedor le ofrece y así
poder realizar una tasación de su valor. Pero cuando el vendedor comunica la
información al comprador, éste ya no tiene necesidad de comprarla, pues ya la
conoce. Por tanto, la única forma de crear un mercado para los productos
intelectuales, viene dada por la imposición de derechos de propiedad sobre estos, que
permiten comunicarlos sin temor a que sean libremente apropiados. La compensación
que el inventor debe ceder por este monopolio, se encuentra en el límite temporal de
su propiedad y, más importante en nuestro caso, en la revelación del procedimiento
exacto de construcción de su invención.
No obstante, al redactar la patente en términos ininteligibles, abstractos, vagos
(Lemley 2012) e incompresibles (Stallman 2004), al omitirse detalles indispensables
para la réplica de la invención (Boldrin & Levine 2008; Feldman 2009), al usarse
términos noveles que dificultan la indización de los resultados de investigación en
buscadores de patentes (Drahos 2010), y al impedir la réplica y validación los
resultados de investigación (Campbell et al. 2002), se mantiene el secreto en la ciencia.
En consecuencia, se incumple el «contrato social» suscrito entre el investigador –que
con la patente obtiene un poder monopólico «bueno» –y la sociedad– que espera
beneficiarse con la revelación de la invención (Drahos 2010). Todas estas
circunstancias dan cuenta de la dificultad de conciliar la investigación cuyo objetivo
es la obtención de una patente con la ciencia abierta.
La real comunicación de los resultados de investigación es sin duda necesaria, pero
no suficiente a los fines de nuestra definición de ciencia abierta; es fundamental
garantizar el uso libre de los resultados de investigación obtenidos, sobre todo
aquellos alcanzados con el apoyo de fondos públicos. No obstante, existen programas
de financiamiento científico, como el Horizonte 2020 de la Unión Europea que, aunque
incluyen presupuesto para exigir la publicación de los resultados científicos obtenidos
en los proyectos subvencionados en revistas que utilicen licencias creative commons, no
aprecian ningún problema cuando estos resultados quieren ser patentados por los
investigadores responsables (Comisión Europea 2013).
4. SOFTWARE LIBRE
Se debe entender que existen situaciones en las que se observa que las patentes
son un indicador claro de obstáculo al progreso en la ciencia, dado el poder
monopólico que se le otorga al propietario de la misma (Wong 2015). Esto lo ha
comprendido la industria, uno de los tres actores junto a la universidad y al estado en
la llamada «triple hélice» (Etzkowitz 2008); la ciencia abierta, en el sentido estricto de
nuestra definición, es alentada por ésta en tanto el «efecto red» sea cuantificable. Por
eso la industria de las telecomunicaciones la alienta y apoya, en una suerte de
deslocalización de sus departamentos de I&D en unidades en las que no solo
investigadores universitarios, sino también autónomos, pueden colaborar de manera
eficiente y económica.
El valor estimado de Internet en USA para 2015 era de 966 mil millones de Dólares,
o un 6% del PIB de esa nación (Siwek 2015), estableciendo un potente incentivo a crear
un mercado con una base común de funcionamiento, a desarrollar los estándares a
nivel de sistemas operativos, de protocolos de telecomunicaciones y de servicios
informáticos, que permiten interconectar a miles de millones de usuarios a través de
Internet. Es lo que se ha conocido como el modelo de innovación privado-colectivo
(von Hippel et al. 2003).
Un ejemplo paradigmático en el software libre se puede ver en el desarrollo del
kernel de Linux (Corbet y Kroah-Hartman 2017), en el que el porcentaje de código
contribuido por desarrolladores pagados por empresas privadas conforma, entre 2016
(v. 4.8) y 2017 (v. 4.13), el 85% del total, encontrando allí nombres familiares entre los
gigantes de la innovación tecnológica como Intel, Samsung, IBM o Google. Aún más, la
contribución relativa realizada por trabajadores no pagados ha bajado
constantemente de 14.6% en 2012 a 8.7% en 2017. Por el contrario, en industrias donde
el «efecto red» no produce una utilidad importante, tal como en la industria
farmacéutica, el monopolio que garantiza la patente es la estrategia alentada y
defendida por la triple hélice.
5. CONCLUSIONES
Repetimos nuestra definición inicial: la ciencia abierta es aquella que permite no
solamente la comunicación libre de los resultados de investigación, sino también su
uso libre. La publicación de los resultados de investigación es necesaria, pero no es
suficiente a los efectos de nuestra definición cuando no se garantiza el uso libre de los
mismos. La práctica del secretismo en la ciencia es incentivada antes de la obtención
de la patente y se mantiene luego de obtenida, dificultando y, a veces, anulando la
comunicación a los resultados de investigación. El uso libre de los resultados de
investigación financiada con fondos públicos es incluso más difícil de conciliar con la
ciencia abierta cuando la estrategia I&D en las relaciones universidad-estado
industria están claramente enfocadas hacia la explotación comercial de los resultados
e investigación, aunque con excepciones surgidas del poder del efecto red, como en el
mundo de las telecomunicaciones e Internet.
6. REFERENCIAS BIBLIOGRÁFICAS
Arrow, Kenneth (1962), «Economic welfare and the allocation of resources for invention, en
National Bureau of Economic Research (eds.) The rate and direction ofinventive activity: Economic
and social factors, Pricenton, Princeton University Press, 609-626.
Blumenthal, David, Campbell, Eric, Anderson, Melissa. S., Causino, Nancyanne, Seashore Louis,
Karen (1997), «Withholding research results in academic life science: evidence from a national
survey offaculty», Jama, 277 (15), 224-1228.
Blumenthal, David, Campbell, Eric, Gokhale, Manjusha, Yucel, Recai. Clarridge, Brian, Hilgartner,
Stephen, Holtzman, Neil (2006), «Data withholding in genetics and the other life sciences:
prevalences and predictors», Academic Medicine, 81 (2), 137-145.
Boldrin, Michele, Levine, David, K., (2008), Against Intellectual Monopoly, Cambridge, Cambridge
University Press.
Campbell, Eric, Clarridge, Brian, R., Gokhale, Manjusha, Birenbaum, Lauren, Hilgartner, Stephen,
Holtzman, Neil, Blumenthal, David (2002), «Data withholding in academic genetics: evidence
from a national survey», Jama, 287 (4), 473-480.
Comisión Europea (2013), Factsheet: Open Access in Horizon 2020.
Corbet, Jonathan, Kroah-Hartman, Greg (2017), 2017 Linux Kernel Development Report. The Linux
Foundation.
Drahos, Peter (2010), The global governance of knowledge: patent offices and their clients, Cambridge,
Cambridge University Press.
Etzkowitz, Henry (2008), The triple helix: university-industry-government innovation in action, New York
and London, Routledge
Feldman, Robin (2009), «Plain Language Patents», Texas Intellectual Property Law Journal 17, 289-304.
Gans, Joshua, Murray, Fiona, Stern, Scott (2017), «Contracting over the disclosure of scientific
knowledge: Intellectual property and academic publication», Research Policy. 46 (4).
Gilder, George (1993), Metcalfe’s law and legacy, Forbes ASAP, 13, 1993.
Lemley, Mark (2012), «The myth of the sole inventor». Michigan Law Review, 110 (5), 709-760.
Merton, Robert (1973), The sociology of science: Theoretical and empirical investigations, Chicago,
University of Chicago Press.
Pénin, Julien (2009), «On the consequences of university patenting: What can we learn by asking
directly to academic inventors?» (No. 2009-04). Bureau d’Economie Théorique et Appliquée,
University of Strasbourg.
Stallman, R. (2004), Software libre para una sociedad libre, Madrid, Traficantes de Sueños,
Siwek, S.E. (2015), Measuring the U.S. Internet Sector. Internet Association.
Hippel, E. V., & Krogh, G. V. (2003), Open source software and the «private-collective» innovation
model: Issues for organization science, Organization science, 14 (2), 209-223.
Walsh, John, Huang, Hsini (2014), «Local context, academic entrepreneurship and open science:
Publication secrecy and commercial activity amongJapanese and US scientists», Research Policy,
43(2), 245-260.
Wong, Sulan (2015), Patents and Scientific Research: Five Paradoxical Scenarios. In Societal Benefits
ofFreely Accessible Technologies and Knowledge Resources, USA, IGI Global.
1 Este trabajo se ha realizado en el marco del Proyecto Fondecyt de Iniciación en Investigación 1150162
«Patentes y Libertad de Investigación: un estudio empírico sobre el ejercicio de la libertad de investigación
en las universidades chilenas que desarrollan I+D».
AZAR Y PROBABILIDAD: UNENFOQUE MULTIDISCIPLINAR Y
FILOSÓFICO
RESUMEN: El uso de las palabras azar y probabilidad lleva con frecuencia a situaciones
ambiguas confusas e incongruentes. Esto se debe, por una parte, a su uso en el lenguaje común
con un sentido laxo y, por otra, a su uso en algunos lenguajes más especializados con unas
significaciones más o menos precisas pero que se refieran a acepciones muy distintas.
En este trabajo se reflexiona, a partir del ejemplo más sencillo ligado a las probabilidades de
tipo azar, lanzar una moneda al aire, sobre su relación con las de tipo matemático y a
continuación con otras formas de probabilidad. El análisis se puede hacer desde distintos
puntos de vista, y claramente son significativos, al menos, el del matemático, el físico y el
ingeniero. Pero, teniendo en cuenta que para obtener una visión holística se han de cruzar las
fronteras de los sistemas epistemológicos propios de estas tres disciplinas, parece inevitable la
perspectiva del filósofo. En este sentido el estudio se plantea como un dialogo entre unos
personajes que representan estos distintos tipos de aproximaciones completado con otro, que
denominó ingenuo, que representa al hombre común que, con frecuencia, cae en aparentes
paradojas.
Palabras clave: Matemática; Física; Técnica.
1. INTRODUCCIÓN
E n este trabajo la palabra azar se utiliza con una significación muy restringida:
a un dado):
aquella que está
se va
ligada
entender
a su origen
por resultado
etimológico
azaroso
(proviene
aqueldel árabe y denomina
que se produce, por
ejemplo, al lanzar un dado y que coincide con la acepción que está implícita en la
definición de juego de azar que hace el DRAE: juego cuyo resultado no depende de la
habilidad o destreza de los jugadores sino exclusivamente de la suerte; p. ej., la lotería.
La probabilidad se va entender según cuatro acepciones, de acuerdo con la
taxonomía que he propuesto en otro lugar (Yarza 2013) que se van a identificar
mediante: PM, probabilidad matemática aquella qué maneja la matemática actual y
que está definida axiomáticamente por Kolmogorov (1933) (Yarza 2014). PA la
probabilidad ligada al azar controlado: por ejemplo, decir que la probabilidad de
obtener un cuatro al lanzar un dado es un sexto y que es el soporte heurístico de la
definición de Laplace (1814). PF, la probabilidad que se obtiene como consecuencia de
aplicar un algoritmo a unos datos de los cuales el más ampliamente utilizado es la
frecuencia relativa y que estudio en detalle Von Mises (1957). PH, aquella probabilidad
que estima un individuo sin que sea necesaria una justificación algorítmica: por
ejemplo, aquella que expresa un policía al decir que está seguro a un 80% de que un
sospechoso es el autor de un crimen, y que ha sido ampliamente discutida, entre otros
por Ramsey (1926) y Jeffrey (2007).
El azar es algo que se descubre en ciertos momentos de la evolución de la
humanidad (Jaynes 1976) y también dentro del desarrollo cognitivo del niño (Piaget
1951). A partir de este descubrimiento se construyen unos artefactos, generadores de
azar, con la intención de obtener resultados azarosos controlados (PA) (Hacking 1975;
Yarza 2009).
Muy posteriormente se desarrolla el tratamiento matemático de la probabilidad
(PM) y Laplace propone una definición, muy ligada a PA, que ha perdurado hasta muy
recientemente, hasta que Kolmogorov establece la definición actual. En paralelo y
dentro de una historia de complejas tensiones se desarrollan las ideas ligadas a las
probabilidades de tipo PF y PH tratando de buscar un acomodo en relación con las de
tipo PM.
Los personajes que pergeño a continuación son estereotipos de su definición, pero
también personas totales que saben separarse de su lenguaje específico (con
conciencia de cuando lo hacen) para atender a las aproximaciones desde otras
perspectivas y contribuir al mejor entendimiento global. Por razones de espacio
excluyo las justificaciones matemáticas detalladas que en otra versión más amplia
incluía como notas.
3. VALORACIÓN FILOSÓFICA
Aquí podría terciar Un Filósofo: su postura matemática es la expresión de un
radicalismo formal que no comparten muchos otros matemáticos. Por ejemplo,
Lakatos (1976) se elevó un escalón por encima de lo inmediato y con una perspectiva
filosófica situó históricamente tal tendencia viendo una de sus exposiciones más
claras en Carnap (1937) y se sintió tentado a decir que «la filosofía de las matemáticas
que vuelva la espalda a los más intrigantes fenómenos de la historia de las
matemáticas, se ha hecho vacía», y hace una irónica crítica del formalismo que trata
de morar como los serafines en los espacios «purgados de todas las impurezas de la
incertidumbre terrestre».
Por el contrario, Lakatos mantiene que las matemáticas cuasi-empíricas se
desarrollan mediante la incesante mejora de las conjeturas, gracias a la especulación y
a la crítica.
Desde una cierta perspectiva filosófica se podría constatar la diferencia radical,
ontológica, que existe entre la moneda matemática y la real. Que las condiciones que
tendría que cumplir la moneda física, dentro del proceso del azar, es que las dos
posibles ocurrencias de un lanzamiento fueran equiprobables y que los lanzamientos
sucesivos fueran independientes entre sí, que son las condiciones que exige el modelo
matemático, y ninguna de ellas se puede predicar con el rigor que requiere el lenguaje
matemático. Y aquí se podría terminar el discurso filosófico.
Pero desde otra perspectiva filosófica se podría elevar el punto de vista para
contemplar conjuntamente el mundo de la moneda matemática y la física como algo
que se da dentro de una realidad global única y hacerlo sin las restricciones (y
consiguiente precisión en su campo) de los lenguajes propios de las dos disciplinas
concretas y utilizar otro que se pueda orientar a la realidad total. Bajo esta
perspectiva se puede constatar que el proceso físico de generación del azar se ha
construido de acuerdo con el modelo ideal matemático, que este proceso no supone
especiales dificultades de ingeniería, con lo que se puede establecer a priori que los
resultados físicos que se van a obtener se van a acercar mucho a los que predice el
modelo matemático.
7. REFERENCIAS BIBLIOGRÁFICAS
Carnap, Rudolf (1937), The Logical Syntax of Language, New York, Kegan.
Hacking, Ian (1975), The emergence ofprobability, Cambridge University Press. Traducción: Alvarez,
Jaynes, Julian (1976), The Origin of Consciousness in the Breakdown of the Bicameral Mind, Boston,
Houghton Mifflin.
Jeffrey, Richard, (2007), Subjective Probability, Cambridge University Press.
Kolmogorov, Andei N. (1933), Grundbegriffe der Wahrscheinlichkeitrechnung, Ergebnisse Der Mathematik.
Traducción: Morrison, N., 1956, Foundations of the theory ofprobability, New York, Chelsea.
Lakatos, Imre (1976), Proofs and Refutations. The Logic of Mathematical Discovery, Cambridge University
Press. Traducción: Solís, C., Pruebas y refutaciones. La lógica del descubrimiento matemático, Madrid,
Alianza.
Laplace, Pierre S. (1814), Essai philosophique sur les probabilités. Traducción: Castilo, P., 1985, Ensayo
filosófico sobre las probabilidades, Madrid, Alianza.
Mises, Richard von (1957), Probability, Statistics and Truth. Second revised English edition prepared
by Hilda Geiringer, New York, Dover.
Piaget, Jean, Inhelder, Bärbel (1951), La genèse de l’ideé de hasard chez l’enfant, Presses Universitaires
de France. Traducción Lowel, L., 1976, The origin of the idea ofchance in children, New York,
Norton
Ramsey, Frank P. (1994), Philosophical Papers, edited by Mellor, D. H., Cambridge University Press.
Yarza, Miguel (2009), «Construcción y conceptualización del azar», en Actas del VI Congreso de la
Sociedad de Lógica, Metodología y Filosofía de la Ciencia en España, Valencia 2009, 577-583
Yarza, Miguel (2013), Azar, probabilidad e incertidumbre. Una investigación filosófica sobre la tensión entre
la matemática y su aplicación, apoyada en varios enfoques epistémicos.
https://www.educacion.es/teseo/mostrarRef.do?ref=1057800
Yarza, Miguel (2014), La peculiaridad de la probabilidad, en Alicia Villar Ezcurra y Antonio Sánchez
Orantos (eds) Una ciencia humana. Universidad P. Comillas, Madrid, 73-83.
LA RAÍZ ANTROPOLÓGICA DE LA PERCEPCIÓN DEL RIESGO Y
LA MATEMÁTICA
RESUMEN: En este trabajo se entiende por tomar una decisión en situación de riesgo, el
hecho de tomarla en condiciones de incertidumbre; ello implica cuatro factores principales que
maneja más o menos conscientemente la persona: la percepción de algo como objeto de riesgo;
las probabilidades asociadas a ese riesgo; la importancia que se le concede a aquello que está en
juego; y la peculiar manera del individuo de relacionarse con él. El presente estudio se centra,
principalmente, en el ultimo de ellos que se va a denominar actitud ante el riesgo. La postura
de una persona frente al riesgo puede ser de indiferencia, de aversión o de propensión, siendo
la indiferencia la frontera entre las otras dos. Diremos que actúa con aversión al riesgo si se
inclina por la certeza frente a una opción en incertidumbre de mayor esperanza.
El análisis se puede basar: en una descripción en profundidad; en el soporte que suministran
las ciencias humanas; en tratar de encontrar modelos matemáticos y en una postura filosófica
de síntesis que busque la congruencia de las diversas perspectivas. Este estudio trata de
apoyarse en todas estas perspectivas pero busca hacer énfasis en como la matemática puede ser
valida y útil como modelo de estas situaciones.
Palabras clave: conducta humana; indiferencia; aversión; filosofía.
1. INTRODUCCIÓN
La palabra riesgo es de uso corriente en el lenguaje común. El Diccionario de la
Real Academia Española (DRAE) lo define, en su primera acepción, como contingencia
o proximidad de un daño. A su vez contingencia la define como posibilidad de que una
cosa suceda o no suceda. Un ejemplo clásico de su uso es: el cáncer de pulmón es uno
de los mayores riesgos que afectan a los fumadores. En esta acepción, el riesgo queda
asociado básicamente a la incertidumbre y al daño y es el significado, que con una
cierta ambigüedad, normalmente adquiere en la conversación corriente.
Adicionalmente se definen en el DRAE una serie de riesgos cualificados como, por
ejemplo, «Riesgo de mercado»: Incertidumbre para un inversor … derivada de que lo
cambios que se producen en los mercados, … alteren el precio de sus activos.
Las distintas disciplinas que consideran el riesgo de una manera más especifica.
buscan definiciones más precisas adecuadas a los objetivos que persiguen. De esta
manera a la ambigüedad de las definiciones que podríamos llamar de amplia gama se
unen otras de mayor precisión que suponen concepciones distintas e incluso
contradictorias y todo ello conduce, con no poca frecuencia, a un uso equivoco del
término riesgo.
Por ejemplo, en el artículo que la Enciclopedia Filosófica de la Universidad de
Stanford dedica al riesgo (Hansson 2014) se identifican cinco acepciones básicas como
marco para su análisis filosófico, dejando fuera otras de carácter más técnico que se
establecen para campos especializados. La primera coincide con la del DRAE que se
acaba de considerar y las otras son las siguientes: 2. La causa de que un suceso no
deseado pueda ocurrir o no. 3. La probabilidad de que un suceso no deseado ocurra o
no. 4. La esperanza matemática de un suceso no deseado que puede ocurrir o no.5. El
hecho de que una decisión se tome en condiciones de probabilidades conocidas
(«decisión en riesgo» como opuesta a «decisión en incertidumbre»)
La segunda se refiere a un termino tan controvertido filosóficamente
(especialmente en el campo de la filosofía de la ciencia) como causa; La tercera se
refiere, si ha de ser precisa, a un concepto matemático (en otros campos la palabra
probabilidad tiene un carácter vago o recurre a su relación con el concepto
matemático); la cuarta al resultado de un algoritmo matemático (muy sencillo pero un
algoritmo al fin), en donde además está implicada otra variable: la envergadura del
riesgo. Es claro que en el análisis del riesgo intervendrán la causalidad, la probabilidad
y la esperanza matemática, pero en el ámbito de este trabajo, por claridad y
coherencia, se van a excluir de su definición.
La quinta definición se refiere a un hecho relativo a una decisión; es decir se trata
de un acto humano (el hecho de tomar una decisión) lo que implica que es un
momento de la conducta humana; o sea, se trata de algo fundamentalmente
antropológico (entendiendo la palabra en su sentido más amplio) y en consecuencia
propicio a su análisis desde las ciencias humanas.
Pero en la definición en consideración se añade que tal decisión se toma en
condiciones de probabilidades conocidas, y se hace énfasis en excluir explícitamente
el que se tome en condiciones de incertidumbre (que es algo que radica en el humano
que toma la decisión). Esto hace tal acepción muy restrictiva. Por ejemplo, aun
entendiéndose como se quiera la palabra probabilidad, la decisión en riesgo de un
inversor en el mercado de valores (que citábamos anteriormente definida por el
DRAE) nunca se toma en condiciones de probabilidades conocidas.
Y llevando el rigor del análisis de la definición en consideración al extremo, nunca
es posible pues la probabilidad es un ente matemático que el humano podrá estimar
pero no conocer, aunque en algunas ocasiones tal estimación se ajuste muy
estrechamente al concepto matemático y a efectos prácticos ambos se fundan.
Tras estas consideraciones, en este trabajo, se va a entender por: Tomar una
decisión en situación de riesgo (o abreviadamente decidir en riesgo): el hecho de que
una decisión se tome en condiciones de incertidumbre. Y el siguiente desarrollo va a
tener como núcleo el análisis de tal tipo de hechos. Pero no se va a rehuir el uso de la
palabra riesgo con los significados que adquiere en el lenguaje corriente, siempre que
ello no induzca a error.
En un punto vamos a violentar un poco el lenguaje común: la palabra riesgo se
utiliza, con frecuencia, con un sesgo hacia la posibilidad de sufrir un daño como
señala el DRAE. Aquí se va a considerar de una manera más general como aquello que
acompaña a una acción decidida en un estado de incertidumbre sea ello beneficioso a
dañino.
Por ejemplo, si construimos un producto cuya venta estimamos que nos va a
producir un beneficio de entre 1000 y 3000€ (por ejemplo suponiendo que el beneficio
es una variable aleatoria con una distribución uniforme en ese intervalo) nos hemos
embarcado en una operación de riesgo aunque lo que obtengamos de ella sea siempre
un beneficio: siempre por encima de los 1000€ y con una esperanza (más adelante
volveremos sobre la significación de esto) de 2000. El riesgo proviene de la
incertidumbre.
Por el contrario, si hemos vendido nuestro producto antes de su construcción con
un margen de 2000€ nuestro negocio no supone una operación de riesgo. Se trata de
una situación determinista. Tendremos un beneficio fijo de 2000€.
La decisión en riesgo implica cuatro factores principales que maneja de manera
más o menos consciente la persona que decide: la percepción de algo como objeto de
riesgo; las probabilidades (de momento se utiliza ese termino con el impreciso sentido
del lenguaje corriente) asociadas a ese riesgo; la importancia que se le concede; y la
peculiar manera del individuo de relacionarse con él (aversión, indiferencia o
propensión). El presente estudio se va a centrar, principalmente, en el ultimo de ellos
que se va a denominar actitud ante el riesgo.
2. ENFOQUE
Dado que todo ello forma parte de la conducta humana, una primera forma de
acercarse a su análisis es mediante una descripción en profundidad; otra es apoyarse
en el soporte que suministran las ciencias humanas; un tercero es tratar de encontrar
modelos matemáticos que se ajusten a esa conducta y una cuarta que califico de
filosófica es establecer.
Este estudio trata de apoyarse en todas estas perspectivas pero busca hacer énfasis
en como la matemática puede ser valida y útil como modelo de la conducta humana en
situaciones de riesgo. Y esto entendido de dos maneras: como recurso de la persona
que le ayude a evaluar su situación de riesgo y como visión desde fuera de esa persona
que permita entender un determinado comportamiento.
Este trabajo se enmarca dentro de un proyecto más general que está desarrollando
su autor, y de cuyo planteamiento y alcance general se ocupa la tesis que ha
desarrollado recientemente: (Yarza 2013), y en particular en su capítulo 9:
Incertidumbre y acción, pp 243-269. Y viene precedido de unos trabajos puntuales que
desarrollan ciertos aspectos de la tesis y que establecen las bases del presente. Estos
trabajos son: (Yarza 2009), en donde se indaga sobre el origen del azar controlado que
a su vez está en el origen de la actual teoría de la probabilidad; (Yarza 2014a), que
analiza las peculiaridades, que dentro de la matemática, presenta la probabilidad; y:
(Yarza 2014b), (Yarza 2015), (Yarza 2016), que enfocan, desde distintas perspectivas,
diversos aspectos sobre la incertidumbre humana y el riesgo en relación con la
probabilidad matemática.
NOTA BIBLIOGRÁFICA
Hansson, S.O. (2014), «Risk», The Stanford Encyclopedia of Philosophy. https://plato.stanford.edu
Yarza, Miguel (2009), «Construcción y conceptualización del azar», Actas del VI Congreso de la
Sociedad de Lógica, Metodología y Filosofía de la Ciencia en España, Valencia, 577-583.
Yarza, Miguel (2013), Azar, probabilidad e incertidumbre. Una investigación filosófica sobre la tensión entre
la matemática y su aplicación, apoyada en varios enfoques epistémicos.
https://www.educacion.es/teseo/mostrarRef.do?ref=1057800.
Yarza, Miguel (2014a), «La peculiaridad de la probabilidad», En Alicia Villar y Antonio Sánchez (eds)
Una ciencia humana, Universidad P Comillas, Madrid, 73-83
Yarza, Miguel (2014b), «La matemática y la incertidumbre humana», Actas del Primer Congreso
Internacional de la Red Española de Filosofía, Valencia, septiembre 2014.
Yarza, Miguel (2015), «La conducta humana y la matemática», Actas del VIII Congreso de la Sociedad de
Lógica, Metodología y Filosofía de la Ciencia en España, Barcelona, Vol 5, 37-46.
Yarza, Miguel (2016), «Incertidumbre humana y probabilidad matemática en la sociedad de riesgo,
Segundo Congreso Argentino de Estudios Sociales de la Ciencia y la Tecnología, Bariloche.
ESTRATEGIAS DE ENSEÑANZA DE DISTINTOS TIPOS DE
RAZONAMIENTO: EL CASO DE LA ABDUCCIÓN REFERENCIADA
A UNA INVESTIGACIÓN
1. INTRODUCCIÓN
P ensamiento y Actividad Científica (PyAC) es una materia del segundo
Biología. Desdedelaprimer
cuatrimestre coordinación
año deldeProfesorado
la carrera se de Nivel Medio y Superior en
estimula
el desarrollo de temas
de historia y filosofía de las ciencias contextualizadasen los espacios de formación en
Biología. Pero es en PyAC en dónde se introducen ideas metacientíficas con valor
educativo, desde la perspectiva deNaturaleza de la Ciencia. (Lederman, 1992;
McComas, 1998; Adúriz-Bravo, 2005).
PyAC tiene como estructura básica de organizaciónun esquema de preguntas
propuestas por Adúriz-Bravo (2005) que, en el contexto de la formación en naturaleza
de la ciencia, hacen referencia a un eje epistemológico central, auxiliado por uno
histórico y uno sociológico. La materia busca la construcción de ideas por parte de los
estudiantes para dar respuestas a las preguntas: ¿Qué es la ciencia? ¿Cómo se elabora
el conocimiento científico? ¿Cómo cambia la ciencia? ¿Cómo se relacionan la ciencia y
la sociedad?
La pregunta «¿Cómo se elabora el conocimiento científico?» propone el desarrollo
de contenidos relacionados con los diferentes tipos de razonamientos utilizados en la
actividad científica y, también, su correlato en visiones metodológicasabordadas por
la filosofía de la ciencia, como el inductivismoo el enfoque hipotético-deductivo. Así, a
partir de la problematización sobre diferentes episodios históricos y actuales de la
biología,se identifican razonamientos inductivos, deductivos, abductivos y analógicos
y se analizan los alcances de cada uno en los procesos de producción de conocimiento.
Una de las ideas clave a construir, cercana al eje epistemológico, es que la abducción
es el razonamiento que permite construir hipótesis novedosas.
Durante nuestra experiencia como profesores en PyAC, encontramos que existen
diversos obstáculos de aprendizaje en torno a los razonamientos lógicos. Uno de estos,
es el desconocimiento que tienen los alumnos respecto a los razonamientos inductivo,
deductivo y abductivo; y acerca de la formulación y análisis de silogismos. Estos
contenidos han quedado fuera de las currículas de nivel secundario en nuestra región.
La filosofía tampoco es parte de la educación secundaria obligatoria. Esto genera que
los estudiantes se encuentren por primera vez con este tipo de conocimientos en la
Universidad.
Otra de las dificultades es la tradición en la enseñanza de la lógica. Cuando se
aborda la lógica en un curso de ciencias, siempre se da un rol preponderante a la
enseñanza de los razonamientos de deducción e inducción, en general
descontextualizados de los procesos de investigación.Rivera (2003) señala en este
sentido: «Si me preguntaran cuál es el defecto común de las formas más difundidas de
enseñanza de la lógica (los silogismos aristotélicos, las tablas de verdad, o las falacias
como defectos de razonamiento) contestaría que es quizá la desvinculación entre las
formas argumentativas y el contexto del diálogo en que éstas naturalmente ocurren»
(pp. 62). Los ejercicios que se proponen en manuales y cursos de filosofía apuntan a
resolver problemas fuera de un contexto amplio donde enmarcarlos, dando como
resultado un acercamiento a la lógica formal o matemática, en detrimento de los
sentidos finales del problema a resolver.
Los distintos razonamientos, abordados desde sus silogismos, implican una
importante dificultad en el momento de comprenderlos y diferenciarlos. Algunos de
nuestros graduados en relación con el razonamiento abductivo, escriben:
«nos encontramos con la dificultad de poder comprender y diferenciar los tipos de
razonamientos, ya que en la mayoría de los materiales bibliográficos aparece el ejemplo de
los porotos de Peirce (1903) para ejemplificar las diferencias entre los razonamientos
deductivo, inductivo y abductivo. Éste ejemplo, tanto a nosotros como a otros estudiantes,
nos generaba confusión y dificultad para la comprensión del tema». (García Caminos y
Muñoz, 2016).
Las estructuras abstractas propias de la lógica, cuando son trasladadas a
silogismos y ejemplos, generan confusión. A los estudiantes se les dificulta
diferenciarentre razonamientos válidos e inválidos.A su vez, la introducción de la
abducción y la similitud de la estructura de ésta con la estructura que corresponde a
una falacia de afirmación del consecuente (Aliseda 1998), multiplican las dificultades.
Tradicionalmente, la enseñanza de la abducciónse pospone en los cursos de lógica
hasta avanzada la materia. Así, la abducción queda separada de los otros
razonamientos que se abordan en primer lugar y que tienen un lugar preponderante
en el temario de los manuales. Pocos libros destinados a la formación en lógica tienen
entre su índice de temas «la abducción». Más bien, (y quizás en relación conuna
enseñanza tradicional de las ciencias y la herencia de una concepción epistemológica
relacionada con el empirismo lógico) tanto la abducción como otros razonamientos
que pueden generar hipótesis, no han sido tan propuestos en la enseñanza como lo
han sido la deducción y la inducción, base de las grandes metodologías de la ciencia
que ha estudiado la epistemología.
2. PROPUESTA DE ENSEÑANZA
En PyAC se desarrolla desde el año 2012 una actividad que implica a los alumnos
en el análisis de una entrevista al científico ganador del Premio Nobel Dr.Peter Agre.
Esta entrevista fue publicada en el libro Biología (Campbell et al, 2007), bibliografía
clásica en la formación universitaria. Esta actividad permite trabajar diversos núcleos
conceptuales de la materia, en particular los referidos al método científico, la forma
en que los razonamientos lógicos forman parte de los procesos de investigación y
cómo se insertan los modelos científicos en las investigaciones. En esta comunicación
nos referiremos exclusivamente alas consignas que apuntan a la relación entre los
distintos tipos de razonamientos lógicos y el proceso de investigación en ciencia.
Como hemos señalado, en PyAC buscamos la construcción de la idea clave «la
abducción es el tipo de razonamiento que permite construir hipótesis novedosas»
(Espejo, 2008; Bar, 2001; Aliseda, 1998).La actividad que proponemos colabora con ello,
contextualizando los razonamientos y poniendo énfasis en la identificación de
hipótesis y de datos previos que permitan interpretar los posibles caminos de la
abducción.
Actividad Propuesta:
Lean la entrevista al Dr. P. Agre (Campbell, 2007). A partir de la descripción que hace de su
investigación, identifiquen diferentes elementos de valor epistemológico en el proceso de investigación
(por ejemplo, experimentos, hipótesis, etc.) Organicen esos elementos en una red que permita
comprender cómo fue la estructura del proceso de investigación.
Esta primera consigna busca la comprensión por parte de los alumnos del proceso
de investigación seguido por el Dr.Agre en su trabajo de identificación de la proteína
Acuaporina. La construcción de la red permite hacer transparentedicho proceso y
aislarlo de otros elementos de la entrevista. El tipo de esquemas que suelen
recuperarse como producciones de los alumnos/as son de ésta índole:
… la investigación se enfoca en una nueva hipótesis sugerida por el fisiólogo y hematólogo John Parker:
«quizás esta proteína está implicada en el transporte de agua». Sin lugar a dudas esta conjetura
corresponde a un razonamiento abductivo, es una hipótesis novedosa que fue pensada fuera del marco
teórico con el que trabajaba Agre.
3. DISCUSIÓN
La combinación de estas dos formas de argumentar permite un juego doble: Por un
lado identificar el tipo de razonamiento desde su estructura, en el caso de la
abducción como una falacia de afirmación de consecuente. Pero a la vez, identificar
los distintos tipos de razonamiento en el marco de la entrevista, permite
contextualizarlos en el marco de un problema. Para la abducción, interpretar cómo
ese tipo de razonamiento aporta ideas novedosas, relaciones nuevas y plausibles, en
algunos casos desde fuera de los marcos de referencia que se manejan en una
investigación dada.
Esta actividad ha resultado fructífera para que los estudiantes elaboren distintos
tipos de razonamiento en función a un contexto. A lo largo del cursado, son capaces
de identificar la abducción en distintas investigaciones que se les presentan,
generalmente como episodios de historia de la ciencia. Trabajar estos contenidos
permite a los alumnos entender y analizar el modo en que los científicos llegan a
conjeturas razonables para poder comprender ciertos fenómenos de interés,
ampliando la enseñanza de los razonamientos lógicos más allá de su estructura y
dándole sentido desde el momento de su aprendizaje.
4. REFERENCIAS BIBLIOGRÁFICAS
Adúriz-Bravo, A. (2005). Una introducción a la naturaleza de la ciencia: La epistemología en la
enseñanza de las ciencias naturales. Buenos Aires: Fondo de Cultura Económica.
Aliseda, A. (1998). «La abducción como cambio epistémico: CS Peirce y las teorías epistémicas en
inteligencia artificial». Analogía Filosófica, N.° 12(1), 125-144.
Bar, A. (2001), «Abducción. La inferencia del descubrimiento». Cinta de Moebio. N.º 12: 1-7
Campbell, N. A. et al (2001). Biología: conceptos y relaciones. México, D.F: Pearson Educación
Espejo, R. (2008) «Peirce, la abducción y la Investigación Científica». Revista Observaciones
Filosóficas N.° 6
García Caminos, C. y Muñoz, N (2016) «Abordaje de una clase sobre tipos de razonamiento a partir
de una investigación criminal» XII Jornadas Nacionales y VII Congreso Internacional de
Enseñanza de la Biología. Buenos Aires
Lederman, N. G. (1992) «Students’ and Teachers’ Conceptions of the Nature of Science: A Review of
the Research». Journal ofresearch in science teaching 29:4, 331-359
McComas, W. F. (1998) The principal elements of the nature of science. Dispelling the myths. in W.
F. McComas (ed.) The Nature of Science in Science Education, 53-70. Netherlands:
KluwerAcademicPublishers.
Rivera, J. L. (2003). «Tópicos para la enseñanza de la lógica». Ergo, Nueva Epoca, marzo 2003, no. 12,
p. 59-75.
II. TEMAS FILOSÓFICOS
DE LAS DISCIPLINAS PARTICULARES
ALGUNOS PROBLEMAS Y POSIBILIDADES DE LAS MEDIDAS
OBJETIVAS DE LA CONCIENCIA
INTRODUCCIÓN
on el resurgir del estudio de la conciencia a finales de siglo pasado,
C
1.
principalmente desde las neurociencias cognitivas, se ha avivado el debate
respecto a problemas metodológicos de larga data en el estudio de este
fenómeno. Uno de estos problemas se pone de manifiesto a la hora de justificar la
elección de los procedimientos de medición (medidas subjetivas, como el reporte; u
objetivas, en tanto respuestas conductuales asociadas a procesamiento conciente
versus no conciente). Existen tanto argumentos conceptuales como evidencia
empírica que parecería sostener la elección de ambos tipos de medidas, sin poder
llegarse a una decisión acerca de cuál de estos procedimientos mide efectivamente la
conciencia, y cuál mide posiblemente otros fenómenos.
El problema se acentúa aún más si se considera que no existe un consenso respecto
a la validez de las medidas objetivas que pueden utilizarse como marcadores
conductuales de diferencias cualitativas entre procesos concientes y no concientes
(problema que por tanto se trasmite al estudio neurocientífico de la conciencia). Esta
situación ha llevado a algunos autores, como Elizabeth Irvine (2012, 2013, 2014) a
tomar una postura «pesimista» acerca de la posibilidad del estudio científico de la
conciencia. Sin embargo, en este trabajo proponemos un análisis más «optimista»
respecto a las posibilidades de las medidas objetivas de la conciencia en neurociencias
cognitivas, y en general, respecto al estudio científico de la conciencia.
Para presentar nuestro análisis, seguiremos el siguiente orden: primero se
realizará una descripción del método de diferencias cualitativas y su uso en ciencias
de la conciencia; y luego se hará una síntesis de las críticas que Irvine dirige a este
método, retomando una de sus tesis más fuertes (la del carácter pre-teórico de toda
elección de marcadores de conciencia). Seguidamente se propondrán dos
posibilidades que ponen en entredicho estas conclusiones «pesimistas»: por un lado,
la incorporación de elementos de la neurobiología evolucionista, que permite acceder
a definiciones y marcadores con mayor peso teórico, tomando como ejemplo el
modelo de naturalismo neurobiológico (NNB) de Feinberg y Mallat (2016a, 2016b). A su
vez, y partiendo de las posibilidades planteadas por este modelo, se considerará la
existencia de múltiples conciencias como una puerta para reinterpretar el problema
de los múltiples marcadores de conciencia. De esta forma, se intentará presentar
lecturas alternativas respecto a las posibilidades del método de diferencias
cualitativas en el estudio de la conciencia, y a las posibilidades de la ciencia de la
conciencia actual.
6. CONCLUSIONES
A pesar de haber puesto en entredicho los alcances de algunas críticas realizadas
por Elizabeth Irvine respecto a las posibilidades de construcción metodológica en la
actual ciencia de la conciencia, reconocemos el aspecto «insular» del mapa de las
neurociencias de la conciencia, donde en ocasiones cada modelo parece representar
una isla conceptual y a veces también metodológica (ver diferencias conceptuales y
metodológicas entre GNWT e IIT, por ejemplo).
Quizás no deba asumirse, sin embargo, que debido a esta geografía actual se vea
imposibilitada toda construcción conceptual y metodológica válida, es decir: que toda
elección conceptual y metodológica de marcadores de conciencia tenga que ser por
fuerza pre-teórica. Esta manera de pensar es circular: si no existe elección teórica
posible dentro del campo, entonces nunca la habrá. Una solución posible es la de
recurrir a elementos de otros campos, y a la elección de otros problemas de
investigación y tipos de modelos dentro del mismo campo, como fuente de novedad y
reinterpretación teórica y metodológica.
Más allá del hecho de que el NNB explique exitosamente o no la conciencia, lo que
se ha tratado de mostrar es que un modelo de este tipo, para proponer sus hipótesis,
al menos parece partir de una construcción distinta a la de otras propuestas
estudiadas por Irvine. El NNB provee un marco prometedor para extensiones
metodológicas en el estudio de conciencia-estado, de contrastaciones posteriores en
su propio ámbito de conciencia-criatura, y quizás como posible base a largo plazo para
estudios de conciencia-contenido.
Por último, pese a revisar algunas de sus críticas, creemos que debe reconocerse
en la propuesta de Irvine la importancia de una revisión acerca de la ciencia de la
conciencia no ya desde la óptica tradicional de la filosofía de la mente sino desde la
filosofía de la ciencia. De la misma forma, también se agradece su propuesta de
considerar que el concepto de conciencia con sus consecuentes procesos asociados
debe ser abordado interdisciplinariamente (Irvine 2012), lo cual parece ser también la
intención de modelos como el NNB.
7. BIBLIOGRAFÍA
Block, Ned (2011), «Perceptual consciousness overflows cognitive access», Trends in Cognitive
Sciences 15 (12), 567-575.
Feinberg, Todd E., Mallatt, Jon (2016a), The Ancient Origins of Consciousness: How the Brain Created
Experience, 1era edición, Cambridge, MIT Press.
Feinberg, Todd E., Mallatt, Jon (2016b), «The nature of primary consciousness. A new synthesis»,
Consciousness and Cognition 43 (Supplement C), 113-127.
Hohwy, Jakob (2009), «The neural correlates of consciousness: New experimental approaches
needed?», Consciousness and Cognition 18 (2), 428-438.
Irvine, Elizabeth (2012), Consciousness as a Scientific Concept: A Philosophy of Science Perspective, 1era
edición, Dordrecht, Springer Science & Business Media.
Irvine, Elizabeth (2013), «Measures of Consciousness», Philosophy Compass 8, 285-297.
Irvine, Elizabeth (2014), «Explaining What?», Topoi 36 (1), 1-14.
Timmermans, Bert, Cleeremans, Axel (2015), «How can we measure awareness? An overview of
current methods», en Morten Overgaard (ed.) Behavioral Methods in Consciousness Research,
Oxford, Oxford University Press, 21-46.
EL RUMOR DE LA CIUDAD.
ARGUMENTACIÓN ENTWITTER
RESUMEN: En este trabajo explotamos las posibilidades de análisis que brinda la API de
Twitter a través de su función de geolocalización de los contenidos. Se presentan los resultados
provisionales del estudio que venimos realizando en la ciudad de Madrid al obtener los tweets
producidos en 16 ubicaciones de su almendra central.
Palabras clave: Geolocalización de la información. Análisis de Redes Sociales. Data Analytics.
E l estudio del discurso a través de las Redes Sociales forma parte hoy en día del
tecnológica.
vasto dominioSi del esData
bienBig cierto
y por
quetanto
los recursos
se asocia
puede
a proyectos
resultarcon
costosos
una fuerte
una base
vez se
sobrepasan ciertos límites, también lo es que hay un amplio margen para investigar
las redes sociales, quizá no todas, sin contar con herramientas solo al alcance de unos
pocos.
En nuestro caso hemos venido investigando el debate y el flujo de la información a
través de Twitter centrándonos en los perfiles de las formaciones políticas más
destacadas y en toda la producción de datos que se genera a su alrededor. Este
proyecto, denominado Electa –http://zeus.lllf.uam.es/Electa– nos ha permitido
obtener una idea muy precisa de ciertos mecanismos básicos de lo que denomino el
análisis de información orientada, es decir, aquella que se recoge analizando
expresamente los flujos de información dirigidos y generados por perfiles de alta
relevancia social. El hecho sustantivo no es si esta información, tweets, está dirigida a
usuarios públicos, sino que se ha recolectado observando precisamente a tales
usuarios.
Pero existe otra forma muy distinta de recopilar información en este tipo de redes,
aquella en la que lo que se recoge son los datos que los usuarios producen alrededor
de una cierta ubicación urbana o geográfica. Esta opción está basada en las técnicas de
geolocalización desarrolladas en los últimos tiempos a partir de las opciones que
brindan muchos dispositivos móviles. Pese al innegable valor que puede poseer la
información así obtenida, lo cierto es que el porcentaje de dispositivos móviles que
permiten ubicar con precisión los tweets elaborados es relativamente bajo. Se estima
que no más de un 2% de los tweets realmente generados en el entorno, aunque no es
facil saberlo con certeza. Por tanto, esta técnica nunca puede considerarse por sí sola
una forma idónea de analizar los flujos de información urbanos.
El estudio cuyas conclusiones se presentan en este simposio está basado en la
selección de 16 ubicaciones dentro de la almendra central de la ciudad de Madrid. No
se ha seguido un criterio exhaustivo, por lo que es posible que la malla presente
huecos relevantes. La elección de las distintas ubicaciones se basa más bien en el
interés urbano de cada una de las zonas elegidas. Se trata de lugares céntricos
caracterizados por su alta movilidad, por su tasa de actividad o por su interés
turístico.
Una vez elegidos los objetivos, nuestra aplicación obtiene a través de la API –
Application Programming Interface– de Twitter aquellos tweets producidos en torno a
esas ubicaciones con un radio previamente seleccionado. Se ha tratado de no generar
superposiciones, pero no siempre resulta posible.
Los datos obtenidos son almacenados y tratados para obtener diversas
estadísticas. La primera de ellas es puramente cuantitativa. Se trata de clasificar las
diversas zonas en función del perfil de su actividad. Para ello se genera una gráfica
característica que muestra el modelo de producción promedio de información en cada
ubicación a lo largo de la semana. La siguiente imagen muestra el patrón al que
responde la ubicación «Atocha» a lo largo de la semana habiendo tomado como
muestra estadística el periodo que va del 5 de septiembre de 2016 al 5 de enero de
2017.
RESUMEN: ¿Existe un único proceso de integración cognitiva? Comienzo con Palermos (2014)
quien defiende una versión unívoca del proceso de integración cognitiva y en base a ella
argumenta a favor no sólo de procesos extendidos sino también de habilidades. Esto ha dado
lugar a una manera de entender el conocimiento extendido donde las habilidades cognitivas,
en tanto que fenómenos naturales, pueden estar parcialmente constituidas por elementos no
biológicos como, por ejemplo, artefactos tecnológicos. Tras revisar esta propuesta y sus
limitaciones recomiendo como punto de partida para el estudio de las consecuencias
epistemológicas del programa de cognición extendida, una equivocidad de condiciones para la
integración. Esto implica una revisión de la noción de conocimiento extendido que enfatiza la
transformación de habilidades, frente a la extensión a través de un acoplamiento causal.
Palabras clave: conocimiento extendido; habilidades; integración cognitiva.
INTRODUCCIÓN
os dos ejes centrales de esta presentación son el programa de cognición
L
1.
aquellos y el fiabilismo de virtudes. Entiendo como cognición extendida
extendida
enfoques dentro de la filosofía de la mente que proponen la extensión
de la mente (entendamos ahora por mente, un sistema cognitivo) más allá de los
límites orgánicos (tradicionalmente concebidos como la piel y el cráneo). Bajo este
programa, diversos elementos del entorno pueden jugar un papel constitutivo
actuando como un componente más del sistema. Por otro lado, fiabilismo de virtudes
concibe el conocimiento como un logro. De acuerdo con este programa, un proceso de
formación de creencias no sólo debe ser fiable a fin de que produzca conocimiento (lo
que nos llevaría a un fiabilismo simpliciter) sino que debe estar fundamentado en una
virtud o habilidad cognitiva del agente.El conocimiento, recordemos, es considerado
como un estado cognitivo superior y no un proceso puramente azaroso aunque fiable.
Dentro del debate en torno a las consecuencias epistemológicas del programa de
Cognición extendida, se ha argumentado a favor de la compatibilidad entre la
cognición extendida y el fiabilismo de virtudes. La moraleja es muy sencilla: dado que
las habilidades cognitivas son fenómenos naturales, prima facie, no hay nada que
impida que éstas puedan estar constituidas por elementos no biológicos como, por
ejemplo, artefactos tecnológicos. Los programas de cognición extendida proponen un
externismo de vehículos cognitivos (según la distinción de Hurley 2010) donde
distintos elementos pueden conducir procesos cognitivos sea cual sea su composición
material y distribución mereológica. Del mismo modo, en el Fiabilismo de Virtudes
podemos diferenciar entre una virtud y la base para dicha virtud: la habilidad para
extraer oxígeno puede tener distintas bases en un pez o en un mamífero (Greco 1999).
Así, un Sistema de Sustitución Visual Táctil (SSVT) puede verse como una base distinta
para la virtud de la visión o como un vehículo cognitivo extendido. Por ello, parece
que el impedimento principal para esta unión no es más que un individualismo
metodológico que limita aquellos procesos relevantes para la evaluación
epistemológica, a aquellos que tienen lugar dentro de las barreras orgánicas del
agente. Es importante destacar que una habilidad y su sustrato material no denotan lo
mismo, puesto que en el mismo concepto de virtud encontramos enraizado una
dimensión agencial.
5. CONCLUSIÓN
Hemos visto que a través del proceso de integración cognitiva se ha argumentado
a favor de la extensión de procesos cognitivos hacia elementos externos. Por otro
lado, dentro del fiabilismo de virtudes, el proceso de integración cognitiva define de
manera indirecta en qué consiste la agencia cognitiva al definir qué procesos
cognitivos forman una habilidad o virtud. Esto ha dado lugar a una manera de
entender el conocimiento extendido. El conocimiento extendido sería el resultado de
una habilidad híbrida. Si bien, a priori, esta idea parece muy prometedora y
sugerente, en esta presentación, he argumentado que los defensores de la univocidad
del proceso de integración cognitiva así como la idea de que sistema y carácter
denotan lo mismo, se encuentran ante un problema que puede poner en tela de juicio
la compatibilidad entre el fiabilismo de virtudes y el programa de cognición
extendida. Como solución, he apuntado hacia un enfoque multidimensional que
permita comprender de maner complementaria la relación entre lo orgánico y
tecnológico en nuestros procesos de conocimiento y habilidades. Finalmente, he
defendido la idea de que un enfoque complementario resulta incluso insuficiente. Lo
interesante para la evaluación epistémica, propongo, no es sólo qué tipo de relaciones
se dan sino cómo se obtienen y mantienen temporalmente. En este último punto he
recurrido al concepto de prácticas cognitivas de Richard Menary como el elemento
crucial para la transformación y extensión de nuestras habilidades y virtudes
cognitivas.
3. REFERENCIAS BIBLIOGRÁFICAS
Broncano, Fernando (2005), «La Agencia Técnica», Revista CTS (5), 95-107.
Broncano, Fernando y Jesús Vega (2011), «Engaged Epistemic Agents», Crítica Revista
Hispanoamericana de Filosofía. (43), 55-79.
Carter, J. A. (2013), «Extended Cognition and Epistemic Luck», Synthese (190), 4201-4214. Clark,
Andy, David J. Chalmers (1998), «The Extended Mind», Analysis (58), 7-19.
Clark, Andy (2008), Supersizing The Mind, Oxford, Oxford University Press.
Gallagher, Shaun y Crisafi, Anthony (2009), «Mental Institutions», Topoi (28), 45-51.
Greco, John (2010), Achieving Knowledge: A Virtue-Theoretic Account of Epistemic Normativity,
Cambridge, Cambridge University Press.
Heersmink, Richard (2014), «Dimensions of integration in embedded and extended cognitive
systems», Phenomenology of the Cognitive Sciences, 577-598.
Hurley, Susan (2010), «Varieties of Externalism», en Richard Menary (ed.), The Extended Mind,
Cambridge, Massachusetts, MIT Press.
Menary, Richard, (2007), Cognitive integration: Mind and Cognition Unbounded, Basingstoke, Palgrave
Macmillan.
Menary, R. (2012), «Cognitive practices and cognitive character», Philosophical Explorations, (15),
147-164.
Palermos, Orestis, (2011), «Belief-Forming Processes, Extended», Review of Philosophy and Psychology
(2), 741-65.
Palermos, Orestis (2014), «Loops, Constitution, and Cognitive Extension», Cognitive Systems Research
(27), 25-41.
Palermos, Orestis. (2014), «Knowledge and Cognitive Integration», Synthese (191), 1931-1951.
Pritchard, D. (2010), «Cognitive Ability and the Extended Cognition Thesis», Synthese (175), 133
151.
Rupert, Robert. (2009), Cognitive systems and the extended mind, Oxford, Oxford University Press.
ENFERMEDAD MENTAL: LA APROXIMACIÓN
DE IAN HACKING AL DEBATE ENTRE REALISMO Y
CONSTRUCCIONISMO[1]
1. INTRODUCCIÓN
Nuestra intención es la de exponer y reflexionar sobre el lugar que adopta el
discurso de Ian Hacking frente a las posturas realistas y construccionistas sociales, en
el ámbito de la enfermedad mental. Primero, realizaremos una presentación a grandes
rasgos de estas dos posturas enfrentadas; para pasar a desarrollar el planteamiento de
Hacking, cuyo interés reside particularmente en la forma en que elude y resignifica el
clásico debate entre realismo y construccionismo. Además, expondremos también las
nociones de interactive kind y looping effect. Para concluir, apoyándonos en lo expuesto,
estaremos en disposición de plantear una reflexión sobre el rol de los valores en la
clasificación psiquiátrica.
El interés de estas cuestiones estriba en que, lejos de estar resuelto, el debate
sobre la naturaleza de la enfermedad mental se presenta hoy en día como prioritario,
dada la crisis epistemológica en que está sumida actualmente la psiquiatría (Aragona
2014). Si bien es cierto que difícilmente podríamos encontrar un periodo en la historia
donde las teorías psiquiátricas hayan gozado de total aceptación, no es menos cierto
que en las últimas décadas hemos asistido a una viva polémica entre los defensores de
posturas de corte realista o naturalista y los partidarios de explicaciones que
descansan en el construccionismo social.
5. CONCLUSIONES
Deseamos enfatizar que nuestra intención no es presentar la enfermedad mental
únicamente como un constructo social: su naturaleza es, por así decirlo, híbrida. El
hecho de que podamos encontrar correlatos biológicos la aproxima a las clases
naturales, mientras que su variabilidad histórica y cultural, así como el efecto bucle, la
aproximan a las clases interactivas (Hacking 1999). El punto que deseamos subrayar,
así como el mismo Hacking reconoce, es que las implicaciones que tiene considerar la
enfermedad mental como un hecho biológico o como un producto sociocultural son
notables. Si la característica más reseñable de las clases humanas es que están
atravesadas por cuestiones de valor, entonces comprender la enfermedad mental
únicamente desde la óptica biológica o también desde la óptica cultural es clave, dado
que la biologización de la enfermedad mental lleva aparejado un ocultamiento o
neutralización de los valores que aparecen a la hora de trazar la división entre lo
normal y lo patológico (Martínez 2011). Si es la naturaleza quien dicta la norma, podría
pensarse que el ser humano no debe más que cumplirla. En cambio, si en ese trazado
divisorio entre normalidad y patología entran fuertemente en juego cuestiones
culturales, se despoja en cierta medida a la norma de su legitimidad, puesto que ésta
no viene dictaminada por la necesidad de la naturaleza –por la inevitabilidad (Hacking
1999)– sino que es producto humano y, como tal, revisable, siempre dentro de ciertos
límites.
Es preciso percatarse también de que cuando situamos una enfermedad mental en
el terreno de la biología nos predisponemos a buscar un tratamiento biológico; esto es
obvio, por ejemplo, en el caso de la explicación de la depresión como desequilibrio
neuroquímico y su consecuente tratamiento psicofarmacológico. En cambio, cuando
enfatizamos ese carácter construido de la enfermedad mental, podemos volvernos
hacia la sociedad para tratar el malestar individual. Es por todo ello que, aunque a
priori pareciera que el acercamiento positivista podría ser deseable, en tanto que
situaría la clasificación de las enfermedades mentales en el terreno de la objetividad y
la despojaría de las cuestiones de valor, lo cierto es que éste se ha revelado dañino en
tanto que ha llevado a una ocultación de los valores inscritos en las clases humanas;
máxime cuando la investigación psiquiátrica está fuertemente influenciada por
intereses no siempre terapéuticos.
REFERENCIAS BIBLIOGRÁFICAS
Andreasen, Nancy (1995), «The validation of Psychiatric Diagnosis: New Models and Approaches»,
The American Journal of Psychiatry 152 (2), 161-162.
Aragona, Massimiliano (2014), «Epistemological reflections about the crisis of the DSM-5 and the
revolutionary potential of the RDoC project», Dialogues in Philosophy, Mental and Neuro Sciences
7(1), 1-20.
Aragona, Massimiliano (2015), «Rethinking received views on the history of psychiatric nosology:
Minor shifts, major continuities», Peter Zachar, Drozdstoj Stoyanov, Massimiliano Aragona y
Assen Jablensky (eds.) Alternative Perspectives on Psychiatric Validation: DSM, ICD, RDoC and Beyond.
Oxford, Oxford University Press, 27-46.
Barnes, Elizabeth (2016), «Realism and social structure», Philosophical Studies, Special Issues:
Proceedings of the Pacific APA, 1-17.
Hacking, Ian (1996), «The looping effects of human kinds», en Dan Sperber, David Premack y Ann
Premack (eds.) Causal Cognition: A multidisciplinary Debate. Oxford, Clarendon Press.
Hacking, Ian (1999), The Social Construction of What? Cambridge, Harvard University Press.
Hacking, Ian (2002), Historical Ontology. Cambridge, Harvard University Press.
Kendell, Robert, Jablensky, Assen (2003), «Distinguishing Between the Validity and Utility of
Psychiatric Diagnoses», The American Journal of Psychiatry 160, 4-12.
Martínez, Ángel (2011), «La copia de los hechos. La biomedicina, el poder y sus encubrimientos»,
Quaderns 27,45-64.
Rodrigues, Adriano, Banzato, Claudio (2015), «Reality and utility unbound: An argument for dual
track nosology validation», en Zachar, P.; Stoyanov, D.; Aragona, M.; & Jablensky, A. (eds.)
Alternative Perspectives on Psychiatric Validation: DSM, ICD, RDoC and Beyond. Oxford, Oxford
University Press, 47-60.
Sabbarton-Leary, Nigel, Bortolotti, Lisa, Broome, Matthew R (2015), «Natural and para-natural
kinds in psychiatry», en Zachar, P.; Stoyanov, D.; Aragona, M.; & Jablensky, A. (eds.) Alternative
Perspectives on Psychiatric Validation: DSM, ICD, RDoC and Beyond. Oxford, Oxford University Press,
76-93.
[1] Esta investigación está financiada por la Ayuda para la Contratación de Personal Investigador en
Formación de Carácter Predoctoral que la autora percibe de la Conselleria d’Educació, Investigació, Cultura
i Esport, de la Generalitat Valenciana.
ABDUCCIÓN CON LÓGICA DIALÓGICA
(2) Centro de Filosofia das Ciências da Universidade de Lisboa, Lisboa, Portugal, fontaine.
matthieu@gmail,com
1. ABDUCCIÓN
L a squema
e abducción
bienesconocido de Peirce en
un razonamiento el cual
(1931, 5.189) en
formulamos conjeturas y las usamos.
Para definir lo que es una abducción, hacemos habitualmente referencia a un
los Collected Papers (CP):
«The surprising fact Cis observed.
ButifA were true, C would be a matter of course.
Hence there is reason to suspect that A is true».
A primera vista, esta formulación parece clara. Observamos un hecho C para el
cual no tenemos explicación. Luego, descubrimos que si otro hecho A hubiera tenido
lugar, entonces C sería normal. Es decir que A podría ser visto como una explicación
de C. Por lo tanto, inferimos que tenemos buenas razones para pensar que A ha tenido
lugar. Sin embargo, este esquema sigue siendo problemático y numerosas
explicaciones, a menudo divergentes, han sido propuestas por los filósofos.
Efectivamente, ¿qué es un hecho sorprendente? ¿Qué es una explicación? ¿Qué
significa decir que «tenemos buenas razones para pensar que A ha tenido lugar»?
Una interpretación bastante extendida ha consistido en pensar la abducción como
un razonamiento mediante el cual se genera una explicación A a un hecho
sorprendente C sobre la base de una relación de forma si A entonces C. Suponemos que
la calle está mojada. Sabemos además que si hubiera llovido, entonces la calle estaría
mojada. Concluimos que ha llovido. Obviamente, tal inferencia no es deductivamente
válida, dado que la conclusión no sigue necesariamente de las premisas. Podríamos
aceptar las premisas la calle está mojada (C), si hubiera llovido (A) entonces la calle estaría
mojada (C), sin pensar que A es el caso. Quizás, la calle está mojada porque los
trabajadores de las vías públicas han limpiado la calle (digamos B). De hecho, desde el
punto de vista de la deducción, tendríamos aquí el paralogismo de la afirmación del
consecuente, un argumento no valido y engañoso debido a su similitud con el modus
ponens.
Muchas aproximaciones, reagrupadas en lo que Woods (2013, 366) llama el
«esquema estándar», han descrito la abducción como si fuera una deducción hacia
atrás. Es decir que tenemos un hecho sorprendente y buscamos lo que permite
completar nuestra base de conocimientos para que desde ella se pueda derivar este
hecho sorprendente[1].
Supongamos que E es una oración mediante la cual se reporta un evento o un
estado de hechos, K es una base de conocimiento, ⟹ es una relación de consecuencia,
H es una hipótesis, y K(H) es la revisión de K por la adición de H. Supongamos ahora
que tenemos lo siguiente:
1. E
2. KE
3. H E
Entonces, una abducción es la derivación de H a partir de las tres siguientes
condiciones:
4. K(H) ⊥
5. K(H) es mínima
6. K(H) ⟹ E
Por lo tanto,
7. H
Según Woods, las características del esquema de Peirce no aparecen aquí. Primero,
la abducción debería ser desencadenada por el aspecto sorprendente de E, al cual
deberíamos responder mediante un acto de adivinación o de suposición. Además, aquí
la conclusión aparece con el mismo estatus que E, es decir que se da como algo
verdadero o un hecho. Pero no es nada más que una hipótesis, para la cual no tenemos
evidencia y que tampoco nos comprometemos a creer. De hecho, la hipótesis no tiene
por qué ser añadida a nuestra base de conocimientos. Una hipótesis debe ser
comprendida por lo que es, es decir una conjetura, y no un conocimiento. En fin, la
conexión entre la explicación (H) y el hecho sorprendente (E) es subjuntiva. Es decir
que no suponemos que se sostiene la relación, solo suponemos que si H fuera verdad,
entonces E sería el caso. De manera más general, podemos aquí criticar esta
aproximación que sigue estando basada en una concepción deductiva de la abducción,
como si buscáramos completar un argumento deductivo, aunque Peirce (CP 5.146)
mismo decía que la abducción era irreducible a la deducción (y la inducción).
2. EL MODELO GW DE LA ABDUCCIÓN
El modelo GW se sigue de Gabbay & Woods (2005). Según ellos, la abducción es un
razonamiento en el cual se plantea una hipótesis sobre la cual actuamos en una
perspectiva pragmática. Concretamente, un hecho sorprende irrita psicológicamente
un agente racional y constituye un problema de ignorancia (debido a un hecho
sorprendente para el cual no tiene explicación). Frente a un problema de ignorancia,
tres situaciones son posibles:
• Capitulación (surrender): el agente no encuentra solución y se rinde.
• Dominación (subduance): el agente encuentra una solución.
• Abducción: el agente produce una inferencia sobre la base de una hipótesis.
Sea T la meta epistémica de un agente en un instante y K su base de conocimientos
en este instante. Sea K* un sucesor inmediato de K. Sea R una relación de logro para T
y ⇝ un conectivo condicional subjuntivo. K(H) es la revisión de K con la adición de H.
C(H) denota la conjetura de H y HC su activación. Sea T!Q(α) el planteamiento de T
como meta epistémica relativa a una cuestión no respondida a la cual, si fuera
conocida, α sería su respuesta. El modelo GW está definido como lo siguiente:
1. T!Q(α)
2. ~(R(K,T)) (hecho)
3. ~(R(K*,T) (hecho)
4. H∉ K (hecho)
5. H∉ K* (hecho)
6. ~R(H,T) (hecho)
7. ~R(K(H),T) (hecho)
8. H ⇝ R(K(H),T) (hecho)
9. H satisface condiciones S1,…, Sn (hecho)
10. Entonces, C(H) (sub-conclusión, 1-7)
11. Entonces, HC (conclusión 1-8)
REGLAS DE PARTÍCULA
X– ! – ∃xAx Y– ? – ?∃ X– ! – Aki
Las reglas estructurales definen la organización general del diálogo y dicen cómo
aplicar las reglas de partículas (cómo empezar un diálogo, quién tiene que jugar,
cuándo, quién gana, etc.):
[RS-0][Regla de inicio] Sea Φ una fórmula compleja. Todo juego dialógico D(Φ)
empieza con la afirmación Φ por P (Φ se llama la tesis inicial). Seguidamente, O y P
eligen un número entero positivo llamado rango.
[RS-1i][Regla de juego intuicionista] Después de haber elegido los rangos, los
golpes son realizados alternativamente por O y P y cada golpe es o bien un ataque o
una defensa. Siendo n el rango de repetición de un jugador X: Cuando es el turno del
jugador X, X puede atacar una afirmación precedente o defenderse contra el último
ataque que no ha sido defendido todavía como máximo n veces por aplicación de las
reglas de partículas[3].
[RS-2][Regla formal] No está permitido que P afirme una fórmula atómica a no ser
que O haya afirmado la misma fórmula atómica previamente. Las fórmulas atómicas
no pueden ser atacadas.
[RS-3][Regla de victoria] Un jugador X gana el juego si y sólo si el juego se termina
y X hace el último golpe.
No podemos aquí dar más explicaciones sobre los fundamentos de estas reglas.
Nos remitimos por eso a las referencias mencionadas anteriormente.
O P
3 ?∧1 2
AGRADECIMIENTOS
Este trabajo ha sido realizado dentro del proyecto DIRIA: FFI2014-56219-P.
REFERENCIAS BIBLIOGRÁFICAS
Aliseda Atocha (2006), Abductive Reasoning, Logical Investigations into Discovery and Explanations,
Dordrecht, Springer.
Barés Gómez Cristina y Fontaine Matthieu (2017), «Argumentation and Abduction in Dialogical
Logic», en Magnani & Bertolotti (eds.) Springer Handbook of Model-Based Science. Dordrecht,
Springer, 295-314.
Beirlaen Mathieu y Fontaine Matthieu (2016), «Inconsistency-Adaptive Dialogical Logic, Logica
Universalis 10(1), 99-134.
Clerbout Nicolas (2014,) «First-Order Dialogical Games and Tableaux», Journal of Philosophical Logic
43(4), 785-801.
Fontaine Matthieu y Redmond Juan (2008), Logique dialogique. Une Introduction, Londres, College
Publications.
Gabbay Dov y Woods John (2005), The Reach ofAbduction: Insight and Trial, Amsterdam, Elsevier.
Hintikka Jaakko (1998), «What is Abduction? The Fundamental Problem of Modern Epistemology»,
Transactions of the Charles S. Peirce Society 34(3), 503-533.
Keiff Laurent (2007), Le Pluralisme dialogique: Approches dynamiques de l’argumentation formelle, PhD.
Thesis, Lille.
Kowalski Robert (1979), Logic for Problem Solving, Amsterdam, Eslevier.
Kuipers Theo (1999), «Abduction aiming at empirical progress or eventruth approximation leading
to a challenge for computational modeling», Foundations of Science (4), 307-323.
Lorenzen Paul y Lorenz Kuno (1978), Dialogische Logik, Darmstadt, Wissenschaftliche
Buchgesellschaft.
Magnani Lorenzo (2001), Abduction, Reason and Science: Process of Discovery and Explanation,
Dordrecht, Kluwer.
Meheus Joke et al. (2002), «Ampliative Adaptive Logics and the Foundation of Logic-Based
Approaches to Abduction», en Magnani et al. (eds.) Logical Computational Aspects of Model-Based
Reasoning, Dordrecth, Kluwer, 39-77.
Meheus Joke y Batens Diderik (2006), «A Formal Logic for Abductive Reasoning», Logic Journal of the
IGPL (14), 221-236.
Peirce Charles (1958), Collected Papers, Cambridge, Harvard University Press.
Rahman Shahid (1993), Über Dialogue, Protologische Kategorien und andere Seltenheiten,
Fráncfort, Peter Lang.
Rahman Shahid y Keiff Laurent (2005), «On How to Be a Dialogician», en Vanderveken (ed.) Logic,
Thought and Action, Dordrecht, Springer,
Woods John (2013) Errors of Reasoning. Naturalizing the Logic of Inference, Londres, College
Publications.
[1] Gabbay & Woods (2005, 48) llaman a este esquema el modelo AKM, según los nombres de Aliseda
(2006), Kowalski (1979), Kuipers (1999), Magnani (2001), Meheus et al. (2002), entre otros, que defienden
modelos similares.
[2] Por Lógica Dialógica nos referimos en este artículo a los trabajos que tienen sus raíces en los
trabajos de Lorenzen and Lorenz (1978) y más recientemente en Rahman (1993) y sus colaboradores
(Rahman & Keiff (2005), Fontaine & Redmond (2008), Clerbout (2014) entre otros).
[3] Por razones de simplicidad, ignoraremos los rangos en los diálogos que presentamos en este
artículo.
[4] Véase Meheus et al. (2002) y Meheus y Batens (2006), así como Beirlaen y Fontaine (2016) para una
aproximación dialógica de la lógica adaptiva (de las inconsistencias).
¿PUEDEN RESOLVER LAS NEUROCIENCIAS
EL PROBLEMA DEL LIBRE ALBEDRÍO?[1]
RESUMEN: El importante desarrollo que han experimentado las neurociencias en las últimas
décadas ha tenido, entre otras consecuencias, la de volver a poner de actualidad uno de los
temas filosóficos más clásicos y recurrentes: el problema del libre albedrío. Si buscáramos un
punto de inflexión en el tratamiento de este problema, sin duda deberíamos tomar como
referencia la obra del neurólogo estadounidense Benjamin Libet, cuyos resultados han llevado
a algunos autores a afirmar que, de acuerdo con nuestras mejores teorías científicas, podemos
demostrar que nuestras acciones están causalmente determinadas por factores que escapan a
nuestro control. Otros, más prudentes, consideran que esta es todavía una cuestión empírica
abierta, pero confían en que las neurociencias terminarán por resolverla.
Mi propósito, en la presente comunicación, es triple. En primer lugar, presentaré algunas de
las objeciones que pueden plantearse a experimentos como el de Libet. Seguidamente, trataré
de mostrar que el problema del libre albedrío no es de carácter exclusivamente científico, por
lo que no resulta razonable esperar que las neurociencias consigan resolverlo por sí solas.
Finalmente, defenderé que sólo la colaboración conjunta de la ciencia y la filosofía nos
permitirá avanzar en la clarificación de esta y otras cuestiones.
Palabras clave: Libertad; determinismo; reduccionismo; cientificismo.
1. INTRODUCCIÓN
E n un divertido ensayo sobre el arte de la profecía, Chesterton afirmaba que el
rasgo que caracterizaba a los profetas del siglo XX era que todos ellos escogían
un fenómeno habitual de su tiempo para pronosticar resueltamente, a
continuación, que este se desarrollaría hasta el infinito y que su influencia se
extendería a todos los demás ámbitos de la vida. Entre dichos profetas, Chesterton
mencionaba a aquellos que afirmaban que la ciencia se enseñorearía del futuro, y
quizá no sea demasiado exagerado afirmar que el cientificismo, en sus diferentes
versiones, se ha aplicado en seguir indeliberada pero fielmente el modelo propuesto
por Chesterton. Durante los dos últimos siglos, la interpretación reductiva de la
acción humana ha constituido uno de sus pasatiempos predilectos, y se nos ha
asegurado repetidamente que las personas no somos libres y que la clave de nuestra
conducta individual o colectiva puede derivarse de los últimos descubrimientos de
alguna de las diferentes ciencias naturales (la física, la biología evolutiva, la genética)
o sociales (la economía política, la psicología o la sociología). Hay que reconocer que, a
pesar de los reiterados fracasos de estas explicaciones reductivas, los profetas del
cientificismo han conseguido mantenerse en todo momento inasequibles al
desaliento, de modo que este fenómeno cíclico se reproduce una y otra vez con
imperturbable regularidad. Su última aparición ha coincidido con el formidable
desarrollo de las neurociencias, que ha vuelto a poner sobre el tapete el problema del
libre albedrío, fundamentalmente a partir del conocido experimento de Benjamin
Libet.
2. EL EXPERIMENTO DE LIBET
Desde finales del siglo XIX ya era bien conocido que la actividad cerebral va
asociada a una cierta actividad eléctrica, y gracias al uso y perfeccionamiento de
técnicas de electroencefalografía (EEG) durante el siglo XX, pudo descubrirse, a
mediados de los años 60, que existía un fenómeno (el «potencial de disposición»
(readiness potential)) que se iniciaba unos 550 milisegundos antes de la ejecución de un
movimiento simple, como la flexión de un dedo. En principio, parecía razonable
suponer que este fenómeno se iniciaba precisamente en el momento en que
tomábamos la decisión consciente de realizar dicho movimiento, pero hubo que
esperar a principios de los años 80 para que un neurólogo estadounidense, Benjamin
Libet (1983), ideara un experimento para tratar de corroborar dicha hipótesis.
El experimento de Libet consistía básicamente en lo siguiente: cada participante
debía sentarse ante un reloj especialmente preparado para el caso, cuya manilla daba
una vuelta entera cada 2,5 sgs. El sujeto debía flexionar la muñeca cuando le
apeteciera, sin seguir ningún tipo de pauta y sin planificación alguna. Además, debía
fijarse en el momento exacto en el que había decidido realizar la flexión y, una vez
realizada esta, anotar el momento exacto en el que había tomado su decisión. Esta
rutina se repetía un número de determinado de veces, mientras la actividad cerebral
del sujeto era monitoreada mediante un EEG.
Libet suponía que dicho experimento mostraría que la toma de decisiones coincide
con el inicio del potencial de disposición, pero, para su sorpresa, comprobó que el
tiempo transcurrido entre la decisión de mover la muñeca y el movimiento del
músculo era de sólo unos 200 milisegundos. Dado que los resultados del EEG
corroboraban que el potencial de disposición se iniciaba unos 550 milisegundos antes
de que el músculo comenzara a moverse, quedaba un lapso de unos 350 milisegundos
entre la activación cerebral y la conciencia de la decisión. Durante ese tiempo,
aparentemente, nuestro cerebro ya había «decidido» realizar la acción, aunque aún no
fuéramos conscientes de ello.
¿Cómo interpretar este resultado? A juicio de Libet, podíamos extraer varias
consecuencias de este experimento. En primer lugar, deberíamos admitir que nuestras
intenciones o nuestra voluntad consciente no podían ser la causa de ciertos
movimientos corporales simples, como la flexión de la muñeca. Además, si
generalizáramos dicho resultado, tendríamos buenos motivos para pensar que toda
actividad consciente es en realidad un mero epifenómeno de nuestros procesos
cerebrales. Finalmente, y si esto es así, ello nos debería llevar a abandonar la idea de
que tenemos libre albedrío y de que somos responsables de nuestras acciones. Si
nuestras acciones son causalmente producidas por la actividad cerebral
(inconsciente), quedaría demostrado que la conciencia no desempeña ningún papel
causalmente relevante en las decisiones que tomamos a lo largo de nuestra vida, por
lo que no tendría sentido suponer que somos libres de decidir, conscientemente, entre
diversas opciones, ni podríamos responsabilizarnos de nuestra elección.
Sin embargo, y a pesar de que el propio Libet (1999, 49) haya matizado con
posterioridad sus conclusiones iniciales (concediendo, por ejemplo, la posibilidad de
que la voluntad consciente aún conservara durante unos 100 milisegundos la
capacidad de «vetar» la acción iniciada de forma inconsciente), lo cierto es que ha
llegado a instalarse la idea, tanto entre muchos neurocientíficos como entre algunos
filósofos, de que ha quedado demostrado que el poder de nuestra voluntad es ilusorio
y de que la existencia del libre albedrío es un mito que ya ha sido superado por la
ciencia. El psicólogo social Daniel Wegner, por ejemplo, sostiene que:
Por más que podamos tener acceso consciente a panoramas muy completos de nuestras
acciones antes de que estas tengan lugar, es como si la mente consciente quedara
desconectada de ellas. Un microanálisis del intervalo temporal previo y posterior a la acción
indica que la conciencia entra y sale de escena y en realidad no hace nada (Wegner 2002,59).
Y, en el ámbito filosófico, autores como Pereboom (2001) no dudan en afirmar que
«de acuerdo con nuestras mejores teorías científicas, nuestras acciones están causadas
en último término por factores que están más allá de nuestro control y, por lo tanto,
no somos responsables de ellas». Otros, más prudentemente, señalan algunas de las
carencias del experimento de Libet, pero confían en que las neurociencias acabarán
dándonos la respuesta definitiva. Por poner un ejemplo: Balaguer (2010) afirma que,
dado que no existe ningún buen argumento a priori a favor o en contra del
Determinismo, ni de cualquier otra tesis que demuestre o refute el Libertarismo,
deberíamos concluir que ésta es simplemente una cuestión científica abierta, y que
por tanto no cabe esperar ninguna clarificación relevante de la misma desde el ámbito
de la metafísica.
Tenemos aquí, por tanto, dos cuestiones, una puntual y otra general. La primera
consistiría en plantearse si el experimento de Libet verdaderamente refuta la
existencia del libre albedrío. La segunda, si debemos asumir que la filosofía resulta
inhábil para resolver el problema del libre albedrío, y podemos confiar en que la
neurociencia (o la ciencia en general) se bastará a sí misma para resolver, antes o
después, dicha cuestión.
6. REFERENCIAS BIBLIOGRÁFICAS
Balaguer, Mark (2010), Free Will as an Open Scientific Problem, Cambridge, MA, MIT Press.
Dennett, Daniel C. (2003/2004), La evolución de la libertad, Barcelona, Paidós.
Libet, Benjamin; Gleason, Curtis A.; Wright, Elwood W.; Pearl, Dennis K. (1983), «Time of Conscious
Intention to Act in Relation to Onset of Cerebral Activity (Readiness-Potential). The
Unconscious Initiation of a Freely Voluntary Act», Brain (106), 623-642.
Libet, Benjamin; Freeman, Anthony; Sutherland, Keith (1999), The Volitional Brain: Towards a
Neuroscience ofFree Will, Thorverton, Imprint Academic.
Mele, Alfred R. (2014), Free. Why Science Hasn’t Disproved Free Will, Oxford, Oxford University Press.
Moya, Carlos J. (2017), El libre albedrío. Un estudio filosófico, Madrid, Cátedra.
Pereboom, Derk (2001), Living without Free Will, Cambridge, Cambridge University Press.
Popper, Karl R. (1934/1977), La lógica de la investigación científica, Madrid, Tecnos.
Schlosser, Markus (2013), «Conscious will, reason-responsiveness, and moral responsibility»,
Journal of Ethics (17), 205-232.
Wegner, Daniel M. (2002), The Illusion ofConscious Will, Cambridge, MA, MIT Press.
[1] La investigación que ha llevado a la redacción de este trabajo se enmarca en el proyecto de
investigación 216.064.013-1.0IN, concedido por la Vicerrectoría de Investigación y Desarrollo de la
Universidad de Concepción.
LA CULTURA BIOLOGIZADA. SOBRE RAÍZ EVOLUTIVA DE LA
CULTURA HUMANA
¿
1. INTRODUCCIÓN
¿Puede
de
Podría
la cultura?
brindar
el estudio
¿Cuál la el
la biología
de es conducta
evolutiva
hilo conductor
deuna
otros
explicación
que
animales el origen
enlazaayudarnos
sobre
lo cultural
a y evolución
y lo biológico?
comprender el
origen y evolución de nuestra propia cultura?
Remontarnos a los orígenes de la cultura nos conduce, ineludiblemente, a la
comparación de los diferentes patrones de conducta entre el ser humano y los demás
animales, a la vez que nos lleva a cuestionarnos si los segundos poseen rasgos claros
de comportamiento que puedan ser considerados culturales. El abismo que separaba
al ser humano de los demás animales se va haciendo cada vez más estrecho y las
fronteras se van desdibujando. Si asumimos, como es el caso, que el ser humano ha
evolucionado lenta pero gradualmente a partir de animales antecesores, que eran
mucho más similares a otros mamíferos que lo que es el ser humano ahora, entonces
debemos asumir de igual manera que todo lo que el ser humano es hoy, todo lo que
hace y cómo se comporta debe haberse desarrollado mediante una serie de pasos
también lentos pero graduales, a raíz de lo que sus antecesores fueron, hicieron y
cómo se comportaron.
5. REFERENCIAS BIBLIOGRÁFICAS
Archbold, W. (1982), Materiales para una Teoría sobre el Origen y Evolución de la Cultura, Barranquilla,
Editorial Mejoras.
Ayala, F. (2012), Tres preguntas clave sobre la evolución del hombre, Madrid, Unión Editorial.
Bonner, J. T. (1982), La evolución de la cultura en los animales, Madrid, Alianza Universidad.
De Waal, F. (2002), El simio y el aprendiz de sushi. Reflexiones de un primatólogo sobre la cultura,
Barcelona, Paidós.
Dean, L., Vale, G., Laland, K., Flynn, E., & Kendal, R. (2014), «Human cumulative culture: a
comparative perspective» en Biological Reviews 89, 284-301.
Laland, K., & Hoppitt, W. (2003), «Do Animals Have Culture?» en Evolutionary Anthropology 12,
50–159.
Leca, J.-B., Gunst, N., & Huffman, M. (2010), «The first case of dental flossing by a Japanese macaque
(Macaca fuscata): implications for the determinants of behavioral innovation and the
constraints on social transmission» en Primates, 51(1), 13-22.
Sánchez, J. R. (2014), «Aproximación evolucionista al estudio del comportamiento humano», en S.
Sánchez López (ed) Etología. La ciencia del comportamiento animal, Barcelona, UOC, 517-552.
Tomasello, M. (1999), The cultural origins ofhuman cognition, Cambridge, Harvard University.
Whiten, A., Hinde, R., Laland, K., & Stringer, C. (2011), «Culture envolves (Introduction)» en
Philosophical Transactions of The Royal Society, 366 (1567), 938-948.
INSUFICIENCIA DEL DESARROLLO
DE LA FILOSOFÍA DE LAS CIENCIAS SOCIALES
RESUMEN: Se persigue demostrar que las ciencias sociales no han tenido el desarrollo
suficiente porque Comte legitimó solo la metodología de las ciencias naturales, como la única
válida para elaborar las ciencias sociales. Por su parte, Dilthey hace la crítica pertinente
indicando que las ciencias sociales buscan comprender los hechos, más que explicarlos como lo
hacen las ciencias naturales; por lo mismo, deben moverse más bien en un paradigma
cualitativo y no cuantitativo; por ello, propone buscar una epistemología propia para las
ciencias sociales, pues el objeto de estudio son los hombres y sus relaciones, que no tienen un
comportamiento uniforme, como el mundo natural. Las ciencias naturales buscan el porqué de
los fenómenos; las sociales, la comprensión de los mismos.
Durante el siglo XX hubo intentos por varios filósofos por encontrar una episteme propia de
las ciencias sociales para un desarrollo más rápido de las mismas, sin lograrlo plenamente. De
ahí la crisis de la epistemología de las ciencias sociales, las cuales no han tenido aún una
expansión adecuada. Sin embargo ha habido algunos filósofos que han producido un avance
importante en el desarrollo de las ciencias sociales, pues se han realizado estudios con énfasis
cualitativo, pero con aportes cuantitativos.
Palabras clave: Epistemología; ciencias naturales; filosofía contemporánea.
1. INTRODUCCIÓN
E sta comunicación persigue preguntarse por qué las ciencias sociales no han
tenido el desarrollo esperado hasta fines del siglo pasado.
La razón de lo anterior se encuentra en que cuando surge la ciencia
moderna lo hace en torno a los problemas propios de la física (ciencia pura), la
astronomía (ciencia aplicada) y la matemática (ciencia instrumental) en que se estudia
el mundo natural, el cual tiene siempre un comportamiento uniforme. Ayudó en ello
el descubrimiento del método inductivo o experimental por parte de Bacon, como un
instrumento eficaz para hacer ciencia, criticando, de paso, el método deductivo y la
lógica aristotélica aplicados desde la antigüedad hasta ese momento; de esta forma, se
inicia la epistemología de las ciencias naturales, vigente hasta el presente. Copérnico,
Bacon, Galileo, Kepler y Newton entre los siglos XVI y XVIII así lo entendieron y lo
estudiaron, desarrollando un fundamento empírico a las ciencias naturales. A su vez,
en forma paralela, los filósofos Descartes, Locke, Leibniz y Kant le dan el fundamento
epistemológico a la nueva ciencia que emergía.
Locke es considerado, desde el punto de vista filosófico, el padre del empirismo;
para él, la única fuente válida del conocimiento es la experiencia, lo que proviene de
los sentidos, puesto que el hombre nace como una tabla rasa en el aspecto
cognoscitivo. De esta forma, el método inductivo de Bacon para la ciencia es ratificado
por Locke, desde la epistemología, como empirismo.
De esta forma, en los siglos mencionados se fue consolidando la epistemología de
las ciencias naturales, tanto desde el punto de vista propiamente científico como
filosófico. Los pensadores descritos eran personas con diversos estudios; sin embargo,
a pesar de las controversias que hubo entre algunos de ellos, todos se unían por la
búsqueda del saber, de intentar explicarse el mundo y la realidad de la existencia
humana; de buscar la verdad.
Finalmente, será el francés Comte quien ratificará definitivamente la
epistemología de las ciencias naturales con su teoría de los tres estadios (teológico,
metafísico y positivo), fundando el positivismo, el cual niega la metafísica y señala que
la ciencia es la única guía de la humanidad. La ciencia es lo único válido y es científico
todo aquello que se puede demostrar empíricamente; lo demás, no existe Comte (1980,
25-40). Se impuso así, a partir de mediados del siglo XIX que la metodología propia de
cualquiera ciencia era la de las ciencias naturales; por lo tanto, si las ciencias sociales
deseaban transformarse en tales debían seguir la metodología de aquellas –las cuales
buscan explicar los fenómenos– y no desarrollar una metodología propia.
Dilthey hace la crítica pertinente indicando que las ciencias sociales buscan
comprender los hechos, más que explicarlos como lo hacen las ciencias naturales; por
lo mismo, deben moverse más bien en un paradigma cualitativo. Durante el siglo XX
hubo intentos por varios filósofos por encontrar una episteme propia de las ciencias
sociales para un desarrollo más rápido de las mismas, sin lograrlo plenamente. De ahí
la crisis de la epistemología de las ciencias sociales, las cuales no han tenido aún una
expansión comparable a las de las ciencias naturales.
Dilthey nos indica que las ciencias sociales no han tenido el desarrollo esperado
porque han utilizado el modelo epistemológico propio de las ciencias naturales; por
ello, propone buscar una epistemología propia para las ciencias sociales, pues el
objeto de estudio son los hombres y sus relaciones, que no tienen un comportamiento
uniforme.
A lo largo del siglo XX han existido diversos intentos epistemológicos para
desarrollar las ciencias sociales; entre ellos se encuentran la fenomenología de
Husserl, la hermenéutica de Gadamer, la filosofía crítica de Habermas y el
racionalismo crítico o método hipotético-deductivo de Popper (Caiceo 2016, 4-9).
La metodología utilizada en este estudio es la propia de la filosofía –analítico
reflexiva–, considerando a sus autores en sus fuentes.
3. CONCLUSIONES
Se ha expuesto que la epistemología es crucial para precisar la metodología
adecuada para acceder a la verdad a través del conocimiento. Al mismo tiempo se
describió el origen de la ciencia moderna y como Comte consolida a las ciencias
naturales y su correspondiente epistemología, señalando que cualquiera ciencia debía
regirse por los métodos propios de esas ciencias si deseaba constituirse como tal; él
mismo fundamenta la sociología como una «física social». Dilthey, por su parte,
contradice el planteamiento central del pensador francés, indicando que la
metodología de las ciencias sociales debe ser otra, pues su objeto de estudio es
diferente. Durante el siglo XX hubo distintos intentos, siendo los principales los de la
fenomenología, la hermenéutica, la filosofía crítica y en algunos aspectos por ciertos
positivistas lógicos, no logrando, sin embargo, consolidar la epistemología propia para
las ciencias sociales.
Existe, por lo tanto, un gran desafío para este siglo, a fin de consolidar la
epistemología de las ciencias sociales y lograr que ellas avancen más
significativamente y no estén siempre atrasadas respecto a las ciencias naturales; ser,
a su vez, flexibles al realizar investigaciones en el contexto de las ciencias sociales, sin
temor de usar, tanto información cualitativa como datos cuantitativos, para
comprender mejor los fenómenos propios del ser humano y de sus relaciones en la
sociedad, objeto central de las ciencias sociales.
4. REFERENCIAS BIBLIOGRÁFICAS
Briones, Guillermo (2002), Epistemología de las Ciencias Sociales, Colombia, Arfo Editores e Impresores
Ltda.
Buber, Martín (1977), Yo y Tú, Buenos Aires, Nueva Visión.
Caiceo, Jaime (2016), «Crisis de la Epistemología de las Ciencias Sociales y la Educación Comparada»,
Revista Profissão Docente (16, 35) 3-14.
Comte, Augusto (1980), Discurso sobre el Espíritu Positivo, Madrid, Alianza.
Dilthey, Wilhelm (1944), Introducción a las Ciencias del Espíritu, México, FCE.
Gadamer, Hans-Georg (1977), Verdad y Método I: Fundamentos de una Hermenéutica Filosófica,
Salamanca, Sígueme.
Gadamer, Hans-Georg (2002), Verdad y Método II, Salamanca, Sígueme.
Giannini, Humberto (2005), Breve Historia de la Filosofía, Santiago de Chile, Catalonia.
Habermas, Jurgen (1987), Teoría de la Acción Comunicativa, Madrid, Taurus, 2 vols.
Husserl, Edmund (1982), Investigaciones Lógicas, Vol. I. Madrid, Alianza.
Husserl, Edmund (1997), Ideas Relativas a una Fenomenología Pura y una Filosofía Fenomenológica,
México, FCE.
Marcel, Gabriel (1964), El Misterio del Ser, Buenos Aires, Sudamericana.
Popper, Karl (1962), La Lógica de la Investigación Científica, Madrid, Tecnos.
Popper, Karl (1999), Miseria del Historicismo, Madrid, Alianza Taurus.
Serrano, Jesús Antonio (2010) (Compilador), Filosofía Actual: En Perspectiva Latinoamericana, Bogotá,
San Pablo.
NUEVAS PERSPECTIVAS SOBRE DIAGNÓSTICO
NEUROPSIQUIÁTRICO PERSONALIZADO COMO PRÁCTICA
CIENTÍFICA
INTRODUCCIÓN
a práctica neuropsiquiátrica moderna está viendo cambios significativos desde
3. CONCLUSIÓN
La poblada variedad de consideraciones sobre el paciente como persona hace
resaltar las complejidades del diagnóstico, que se vuelve probadamente más efectivo
cuanto más pluralizado. Sabemos, sin embargo, que las circunstancias propias del
paciente alteran las posibilidades clínicas, que no son iguales en todo el planeta.
Conscientes de su efecto, hemos de plantear cómo queremos que tales factores
comunitarios lleguen a modular el carácter de la investigación y atención médica. Está
en nuestra mano mejorarla, socializarla y personalizarla, adaptando los criterios de
evaluación a las prioridades que nos son requeridas atender en cada momento.
4. REFERENCIAS BIBLIOGRÁFICAS
AAFP–American Academy of Family Physicians: Definition of PCMH.
[http://www.aafp.org/online/en/home/membership/initiatives/pcmh/brief.html] (accedido 10-4
2009).
Anjum, RL; Copeland, S; Mumford, S & Rocca, E (2015), «CauseHealth: integrating philosophical
perspectives into person-centered healthcare», EJPCH (3,4), 427-430.
Asghar, Z, Phung, V-H, & Niroshan, A (2016), «Ethnicity and pre-hospital care for people with
suspected cardiac pain», JECP (22), 721-725.
Ballerini, A (1997), La Diagnose in Psiquiatria, La Nuova Italia Scientifica, Roma.
Barnard, D, Dayringer, R & Cassel, M (1995), «Toward a person-centered medicine: religious studies
in the medical curriculum», Academic Medicine (70, 9), 806-813.
Beasley, JW, Hankey, TH, Erickson, R, Stange, KC, Mundt, M, Elliott, M, Wiesen, P & Bobula, J (2004),
«How many problems do family physicians manage at each encounter?», Annals of Family
Medicine (2), 405-410.
Benedetti, F (2002), «How the doctor’s words affect the patient’s brain», EHP (25), 369-386.
Bertakis, KD & Azari, R (2011), «Determinants and outcomes of patient-centered care», Patient
Education and Counseling (85, 1), 46-52.
Bland, M (2009), «The tyranny of power: is there a better way to calculate sample size?», British
Medical Journal (339), 1133-1135.
Bolt, T & Huisman, F (2015), «Towards person-centered healthcare via realistic evidence-based
medicine», EJPH (3, 3), 275-278.
Cardeña, A (en revisión) «Navigating Person-Centered Diagnosis in Neuropsychiatry».
Chewning, B, Bylund, CL, Shah, B, Arora, NK, Gueguen, JA & Makoul, G (2012), «Patient preferences
for shared decisions», Patient Education and Counseling (86, 1), 9-18.
Cloninger, CR (2004), Feeling Good: The Science of Well-Being, Oxford UP, NY.
Deary, V. (2005), «Explaining the unexplained? Overcoming the distortions of a dualist
understanding of medically unexplainedillness», JMH (14), 213-221.
Eriksen, TE, Kerry, R, Mumford, S, Lie, S & Anjum, RL (2013), «The aetiological and ontological
challenges of medically unexplained symptoms», PEHM (8), 1-11.
Fassaert, T, Jabaaij, L, van Dulmen, S, Timmermans, A, van Essen, T & Schellevis, F (2008), «Does
familiarity patient and general practitioner influence the content of the consultation?», Family
Practice (9), 51.
Fiscella, K, Meldrum, S, Franks, P, Shields, CG, Duberstein, P et al (2004), «Patient trust: is it related
to patient-centred behavior of primary care physicians?», Medical Care (42), 1049-1055.
Fotopoulou, A; Conway, MA; Tyrer, S; Birchall, D; Griffiths, P & Solms, M (2008), «Is the content of
confabulation positive?», Cortex (44), 764-772.
Frankel, RM & Stein, T (2001), «Getting the most out of the clinical encounter», JMPM (16), 184-191.
Galdas, P & Cheater, F (2010), «Indian and Pakistani men’s accounts of seeking medical help for
cardiac chest pain in the UK», Qualitative Research Psychology (7), 122-139.
Gask, L, Klinkman, M, Fortes, S & Dowrick, C (2008), «Capturing complexity: the case for new
classification system for mental disorders in primary care», European Psychiatry (23, 7), 469-476.
Goffman, E (1968), Stigma, Pelican, London.
Hawkins, DM (2004), «The problem of overfitting», JCICS (44, 1) 1-12.
Heckman, JJ (1979), «Sample selection bias as a specification error», Econometrica (47, 1), 153-162.
Heylighen, F (2000), «Evolutionary transitions: how do levels of complexity emerge?», Complexity
(6), 53-57.
Hickey, D, Hickey, A & Noriega, L (2012), «The failure of evidence-based medicine?», EJPCH (1,1), 69
79.
Holmes, D & Hitchcock, C (1992), Gender as a Predictor of Research Topic in Animal Behaviour, North
Carolina UP, Wilmington.
IHI – Institute for Healthcare Improvement (2009), «Health Partners uses «BestCare» practices to
improve care and outcomes, reduce costs»: [http://www.ihi.org/NR/rdonlyres/7150DBEF
3853-4390-BBAF 30ACDCA648F5/0/IHITripleAimHealth-PartnersSummaryofSuccessJul09.pdf]
(accedido 12-10-2010).
Iqbal, SA, Wallach, JD, Khoury, MJ, Schully, SD & Ioannidis, JP (2016), «Reproducible research
practices and transparency across the biomedical literatura», PLoS Biology (14): e1002333.
Johnston, BC, Alonso-Coello, P, Friedrich, JO, Mustafa, RA, Tikkinen, KA (2016), «Do clinicians
understand the size oftreatment effects?», CMAJ (188), 25-32.
Kappen, T & van Dulmen, S (2008), «“General practitioners” responses to initial presentation of
medically unexplained symptoms», BioPsychoSocial Medicine (2), 22.
Kim, SS, Kaplowitz, S & Johnston, MV (2004), «The effects of physician empathy on patient
satisfaction and compliance», Evaluation & Health Professions (27), 237-251.
Kitcher (1993), The Advancement of Science, Oxford UP, Oxford.
Kitwood, T (1995), «Studies in person-centred care: building up the mosaic of good practice», JDC (3,
5), 12-13.
Klinkman, M & van Wheel, C (2011), «Prospects for person-centered diagnosis in general medicine»,
JECP (17), 365-370.
Levinson, W, Roter, DL, Mullooly, JP, Dull, VT & Frankel, RM (1997), «Physician-patient
communication», JAMA (277), 553–559.
Lilienfeld, SO & Marino, L (1999), «Essentialism revisited: Evolutionary theory and the concept of
mental disorder», JAP (108), 400-411.
Lindenmayer, A, Hearnshaw, H., Sturt, J., Ormerod, R. & Aitchison, G (2007), «Assessment of the
benefits ofuser involvementin health research», Health Expectations (10, 3), 268-277.
Macleod, A & Frank, B (2010), «Patient-centredness in a context of increasing diversity», Medical
Teacher (32, 10), 799-801.
MacMahon, JA; Phillips, DL; Robinson, JV & Schimpf, DJ (1978), «Levels of biological organization:
an organism-centered approach», Bioscience (28), 700-704.
Matthews, E (2007), Body-Subjects and Disordered Minds, Oxford UP, Oxford.
Milles, A, Loughlin, M & Polychronis, A (2008), «Evidence-based healthcare, clinical knowledge and
the rise of personalised medicine», JECP (14), 621-649.
Miller, C& Miller, D (2011), «The real-world failure of evidence-based medicine», IJPCM (1), 295-300.
Musalek, M & Schebenbogen, O (2008), «From categorical to dimensional diagnostics», EAPCN (258),
18-21.
OMS – Organización Mundial de la Salud (2006), «What is the evidence on effectiveness of
empowerment to improve health?», Official Report del 2006.
– (2009) Sixty-Second World Health Assembly Primary Health Care, Including Health System Strengthening,
WHO, WHA (62, 12), Génova.
PAHO –Pan American Health Organisation (2007), Renewing Primary Health Care in the Americas.
Pan American Health Organization, Washington DC.
PCPC– Patient Centered Primary Care Collaborative (2006), [http://www.pcpcc.net] (accedido 10-1
2011).
Phillips, RL, Klinkman, MS & Green, L (2007), Harmonizing Primary Care Clinical Classification and
Data Standards, AAFP, Washington.
Raman, R (2011) «Evidence-based medicine and patient-centered care», IJPCM (1, 2), 279-294.
Rappaport, J (1987), «Terms ofempowerment», AJCP (15), 121-144.
Rogers, ES, Chamberlin, J, Ellison, ML & Crean, T (1997), «A consumer-constructed scale to measure
empowermentamongusers of mental health services», Psychiatric Services (48), 1042-1047.
Rosenblatt, A & Attkisson, C (1993), «Assessing outcomes for sufferers of severe mental disorder»,
Evaluation and Program Planning (16), 347-363.
Safran, DG, Murray, A, Chang, H, Murphy, J & Rogers, WH (2000), «Linking doctor-patient
relationship to quality outcomes», JGIM (15-sup), 116.
Schwenk, TL (1999), «The tyranny of names in mental healthcare», JABFP (12, 1), 99-101.
Shamliyan, T, Kane, R & Jansen, S (2010), «Quality of systematic reviews of observational
nontherapeutic studies», Preventing Chronic Disease (7, 6), A133.
Smith, MA, Lisabeth, LD, Bonikowski, F & Morgenstern, LB (2010), «The role of ethnicity, sex, and
language on delay to hospital arrival for acute ischemic stroke», Stroke (41,5), 905-909.
Taleb, NN (2007), The Black Swan: Impact of the Highly Improbably, Random House, NY.
Thomasma, DC (1983), «Beyond medical paternalism and patient autonomy», Annals of Internal
Medicine (98, 2), 243-248.
van Dulmen, S (2011), «The value oftailored communication for person-centred outcomes», JECP
(17,2), 381-383.
WPA – World Psychiatric Association (2003), «Essentials of the World Psychiatric Association’s
International Guidelines for Diagnostic Assessment (IGDA)», BJP (182-Sup 45), 37-66.
MODELOS EN FILOSOFÍA DE LA CIENCIA:
EL CASO DE LA NANOCIENCIA
1. INTRODUCCIÓN
E n este trabajo, analizo la cuestión de modelamiento científico tomando como
el modelo
en 1997.
caso Para Denotación-Demostración-Interpretación planteado por Hughes
esto, identificaré dichos elementos en el modelo de Tersoff
Hamann (en adelante THM) del microscopio de efecto túnel (STM) usado en
nanociencia; presentaré el modelo DDI y, finalmente, expondré la objeción de Otávio
Bueno al planteamiento de Hughes cuando se analizan fenómenos a escala nano y
cuántica.
La nanociencia es un caso interesante para la filosofía de la ciencia porque las
nanoestructuras retan nuestro entendimiento del mundo macroscópico y
microscópico, pues ciertas propiedades consideradas constantes –color, punto de
fusión, fluorescencia, permeabilidad magnética, dureza– cambian en función de la
medida. Por ejemplo, el oro en la nanoescala pasa de ser conductor a aislante, su
estructura cubica se convierte en icosaédrica, su punto de fusión decrece y su color
cambia cuando interactúa con la luz. La propiedad de estas estructuras de exhibir
fenómenos cuánticos es la base para la objeción de Bueno sobre la perspectiva
filosófica de Hughes y su aplicación a la nanociencia. Dicha objeción es mencionada
más adelante.
La nanociencia podría ser sucintamente definida como una disciplina científica
convergente y transversal a diferentes ciencias como la física, química y biología, que
estudia la materia y sus propiedades a una muy pequeña escala. Se ocupa del
comportamiento de la materia en ese nivel donde los átomos llegan a ser entidades
más complejas.
La nanoescala es la dimensión basada en el nanómetro, esto es 10-9. Un nanómetro
es la mil millonésima parte del metro o la millonésima parte de un milímetro. El
prefijo «nano» es de origen griego, y significa «enano» (Binns 2010, 11). A esta escala
pertenece, por ejemplo, la membrana de la célula –cuya anchura es 10 nm (10-8)–, una
molécula de azúcar – 1nm –, la hemoglobina – 5.5 nm de diámetro – o una hebra de
ADN – 2 nm de diámetro. Los materiales existentes en esta dimensión son de especial
interés científico, debido a las implicaciones que una variación de medida tiene en
términos de cambiar propiedades (punto de fusión, color, dureza, actividad catalítica,
etc.). Este surgimiento de nuevas propiedades y de cambios de comportamiento de la
materia entre una escala a otra (por ejemplo, entre la escala micro y la nano), sugiere
que sea preciso hacer investigación básica en naturaleza como cualquier otra ciencia.
Comienzo este trabajo con un breve apartado sobre el microscopio de efecto túnel,
donde presento el modelo usado para entender las imágenes con él obtenidas y que
constituye mi caso de análisis. En el siguiente apartado señalaré las características del
THM –analizado en este trabajo– y continuaré con la descripción del análisis de
Hughes sobre modelos en ciencia (específicamente en física). Al argumentar cómo
dicho modelo encaja en la propuesta filosófica sobre modelos en ciencia hecha por
Hughes, resaltaré la objeción hecha por Otávio Bueno. Él argumentó que, dado que las
nanoestructuras exhiben fenómenos cuánticos, el concepto de denotación no es
aplicable a los modelos que refieren a la nanoescala y necesita ser reemplazado por
una noción de «denotación difusa». El argumenta que, cuando nos referimos a las
partículas elementales, no está claro a qué elementos hacemos referencia porque
estas partículas no tienen condiciones de identidad definidas. Por lo tanto, no es
posible denotarlas (Bueno 2006, 617-621). Así, se cuestiona el componente que, de
acuerdo con la propuesta de Hughes, es central en el proceso de modelar.
Consideraré las características de identidad y distinguibilidad de las entidades
involucradas en THM. Concluiré que el modelo de Hughes se corresponde
satisfactoriamente con el modelo de Tersoff-Hamann, que esta denotación es clara
dentro de la representación THM y que, si fuera necesaria hacer una enmienda al
modelo de Hughes para aplicar a la nanociencia, esta tendría que ser desde un
argumento diferente al que expone Bueno.
7. CONCLUSIÓN
Se han señalado las características generales de la nanoescala y del microscopio de
efecto túnel. Se ha presentado el modelo de Tersoff y Hamman usado para interpretar
imágenes obtenidas por dicho microscopio. Se expuso el modelo DDI de Hughes sobre
modelamiento en ciencias y se explicó cómo el THM encaja en el análisis de Hughes.
Se presentó la objeción de Otávio Bueno al proceso de denotación implicado en el DDI
y se concluyó que el modelo de Tersoff y Hamann encaja satisfactoriamente en el
análisis de Hughes.
A pesar de la objeción de Bueno al proceso de denotación, se demuestra que la
representación del THM claramente distingue el átomo más externo de la punta del
STM de otros átomos cercanos. En el proceso de denotación, cada modelo selecciona
características del fenómeno a representar. El código usado en este caso es la
geometría, dado que ésta describe un espacio específico. El THM usa la densidad de
estados locales, que es la cantidad física que describe la densidad de estados en un
espacio determinado.
Si la propuesta sobre modelos aportada por Hughes requiriera alguna enmienda
para aplicar al caso de la nanociencia, no sería por las razones señaladas por Bueno. El
THM es un modelo propuesto desde la física. Dado que la nanociencia es una ciencia
interdisciplinaria, sería importante, para el entendimiento de modelos científicos,
comprobar si esa interdisciplinariedad tendría algún tipo de influencia en los modelos
que se lleguen a proponer a medida que el conocimiento sobre la nanoescala va
progresando. Pero esto requiere otro tipo de análisis filosófico que será interesante
hacer más adelante.
8. REFERENCIAS BIBLIOGRÁFICAS
Binnig, G. y Rohrer, H. (1983), «Scanning Tunnelling Microscopy». Surface Science, (126, 1), 236-244.
Binns, C. (2010), Introduction to Nanoscience and Nanotechnology, Hoboken: John Wiley and Sons, Inc.
Bueno, O. (2006), «Representation at the nanoscale», Philosophy of Science, (73,5), 617-628.
Chen, J. (2008), Introduction to Scanning Tunnelling Microscopy, 2.ª Edición. Oxford University Press.
Oxford.
Chen, C.J. (1991), «Microscopic View of Scanning Tunnelling Microscopy», Journal ofVacuum Science
& Technology a-Vacuum Surfaces and Films, (9, 1), 44-50.
Gottlieb, A.D. y Wesolosky, L. (2006), «Bardeen’s tunnelling theory as applied to scanningtunnelling
microscopy: a technical guide to the traditional interpretation», Nanotechnology (17,8), R57-R65.
Hornyak, G., Tibbals, H., Dotta, J., y Moore, J. (2009), Introduction to Nanoscience and Nanotechnology.
Boca Raton, Florida: CRC Press.
Hughes, R. I. G. (1997), «Models and Representation», Philosophy of Science (64, 4), S325-S336.
Lindsay, S.M. (2010), Introduction to Nanoscience. Oxford: University Press.
Tersoff, J. y Hamann, D. R. (1983), «Theory and Application for the Scanning Tunnelling
Microscope», Physical Review Letters, (50, 25), 1998-2001.
Tersoff, J. y Hamann, D. R. (1985), «Theory of the Scanning Tunnelling Microscope», Physical Review
B, (31, 2), 805-813.
[1] Hughes elaboró un esquema para explicar el modelo el cual puede ser encontrado en Hughes (1997,
S328).
¿EL ESPACIOTIEMPO ES UNENTE DEL MUNDO? BASES PARA
UNPLURALISMO ONTOLÓGICO DEL ESPACIO Y EL TIEMPO
RESUMEN: La propuesta del presente trabajo consiste en fundamentar la idea de que la mejor
manera de ser realistas con respecto al espaciotiempo, en el contexto de la teoría de la
relatividad general (TGR), la ofrece una aproximación pluralista, lo que a su vez nos conduciría
a la cuestión: ¿el espacio y el tiempo son entes del mundo?
La estrategia consiste en, primeramente tratar los conceptos básicos de la TGR y ubicar el
debate realista entre substancialistas y relacionistas del espaciotiempo; posteriormente, a la
par exponer los fundamentos del pluralismo ontológico, se muestra que la gravitación
universal y la relatividad general fundamentan un pluralismo ontológico del espacio y el
tiempo.
La conclusión es que ser realistas con respecto al espaciotiempo, implica asumir una postura
pluralista, con lo que surgirían cuestiones como: ¿el espaciotiempo es una entidad real?, ¿existe
independientemente del sujeto cognoscente, y de las teorías que dan cuenta de éste?
Palabras clave: Relatividad general; realismo científico; substancialismo; relacionismo.
1. INTRODUCCIÓN
E n términos generales, en el ámbito de la considerada «mejor teoría de espacio y
TGR, implicaría
tiempo», la teoría
sergeneral
realistas
de con
la relatividad
respecto a(TGR),
la entidad
ser realistas con respecto a la
básica de esta teoría, el
espaciotiempo, el problema de si es una «entidad real», lo que a nuestro modo de ver
nos conduce a asumir una postura pluralista. La propuesta del presente trabajo
consiste en fundamentar la idea de que la mejor manera de ser realistas con respecto
al espaciotiempo, la ofrece una aproximación pluralista, lo que aquí se ha llamado: un
pluralismo ontológico del espacio y el tiempo, y que a su vez nos conduciría a la
cuestión: ¿el espacio y el tiempo son entes del mundo?
Así, en la siguiente sección, a la par de exponer los principales conceptos de la
TGR, se desarrolla la idea del realismo sobre el espaciotiempo, alrededor del debate
entre substancialistas y relacionistas, y finalmente, se hace un análisis ontológico
sobre la posible naturaleza del espaciotiempo. En la sección 3, se establecen las bases
de un pluralismo ontológico del espacio y el tiempo, a la vez de que se sustenta la idea
de que existe un genuino pluralismo ontológico entre la teoría de la gravitación
universal (TGU) y la TGR. En la sección 4 se dan las conclusiones.
(2) Principio de covarianza. Las leyes de la física son las mismas en todos los sistemas
de referencia, ya sea inerciales o en presencia de gravedad. Todos los sistemas de
referencia son indistinguibles y equivalentes.
Cabe a su vez señalar que en la TGR, «la geometría se vuelve dinámica, la gravedad
curva al espaciotiempo y la trayectoria de una partícula es equivalente a una curva
geodésica». (Hacyan 2013, 150) Asimismo, la base matemática de la TGR está dada por
las ecuaciones de campo de Einstein, las cuales corresponden a un conjunto de diez
ecuaciones en derivadas parciales no lineales, que en términos generales describen la
gravedad como el resultado de la curvatura del espaciotiempo debido a la presencia
de materia y energía, o del campo gravitacional (Íbidem). Las ecuaciones de campo, en
forma compacta, son:
Gu V =8TIkTu V ...(2),
G V: Tensor de Einstein. Asociado a la geometría del espaciotiempo, e involucra al
Tensor de Ricci Ray, a la curvatura escalar R y al Tensor métrico gay, que
precisamente define la estructura del campo gravitacional (algunas versiones de Guv
incluyen a la constante cosmológica A). T V es el tensor de energía-momento, el cual
contiene la información de la presencia, densidad y distribución de la energía y
materia en cada punto del espaciotiempo (M). k es una constante.
Así, en la TGR, los objetos geométricos básicos, de los cuales puede predicarse
existencia serían: la variedad diferenciable M (espaciotiempo curvo), el campo
gravitacional g V y el tensor energía-momento Tu V, a la vez de los puntos
espaciotemporales. Finalmente, como ya se mencionó, esta teoría postula que el
espaciotiempo físico es un espacio de Riemann de 4 dimensiones, la variedad
diferenciable M. La pregunta que surgiría, dados nuestros intereses, tiene que ver con
¿qué tipo de entidad es el espaciotiempo?, ¿una substancia o una relación entre
substancias? Lo referente al problema del realismo sobre el espaciotiempo, que
atiende a su vez a la cuestión: ¿cuál es la naturaleza del espaciotiempo? De esto, en
términos generales se tienen dos respuestas (Dorato 2008):
Como Dean Rickles (2008) menciona, uno de los puntos básicos de fundamentación
del debate tiene que ver con «una clara distinción entre “materia” y
“espaciotiempo”», lo que implicaría a su vez decidir por una «prioridad ontológica»
de la materia o del espaciotiempo. Para un substancialista la prioridad la tiene el
espaciotiempo, independientemente de considerarlo como «contenedor». Para un
relacionista, dicha prioridad la tiene la materia y los campos. En atención al
substancialismo, como dijera Oliver Pooley (2013, 539): «Hemos visto que el
substancialismo es reconocido por una directamente preferente interpretación
realista de nuestra mejor física. Esta física presupone una estructura geométrica que
es natural interpretar como primitiva y como físicamente instanciada en una entidad
ontológicamente independiente de la materia». En el caso de una postura relacionista,
ésta plantea que el espaciotiempo no goza de una existencia propia, lo que hay son
relaciones entre objetos materiales, y «los posibles patrones de las relaciones
espaciotemporales entre ellos». Esto es, para un relacionista, el espaciotiempo debe
ser definido a través de la materia, por lo que la prioridad ontológica la tendría ésta.
(Rovelli 2008)
La polémica sobre el realismo del espaciotiempo, en términos del debate entre
substancialistas vs relacionistas, lo único que deja claro es que dentro del marco
epistémico de la TGR conviven distintas concepciones ontológicas, cada una con su
muy particular manera de concebir al espaciotiempo, lo cual no incide ni positiva ni
negativamente en el poder explicativo de la teoría. A nuestro modo de ver, el
problema con el debate es que no hay razones suficientes para inclinarse por alguna
postura, dado el estado de la cuestión con respecto a la diversidad de posturas
realistas. De aquí que puedan seguirse planteando cuestiones como: ¿el espaciotiempo
existe?, y considerar lo que hemos llamado: el problema ontológico del espacio y el
tiempo, la pregunta de si éstos son entes del mundo, y que en el contexto de la TGR,
tiene que ver con el problema de si la entidad espaciotiempo existe, o «lo único que
existe es materia y campos».
Analicemos el problema desde un enfoque meramente ontológico. En términos
generales tenemos dos perspectivas desde las que puede analizarse el problema de la
existencia de un ente, en relación con la ciencia (Abbagnano 2000, 485):
(1) Como modo de ser determinado, es decir, definido de cierta manera. El cual es
el caso de cada ciencia particular, en términos de cómo definen la naturaleza de los
entes que estudian. Con respecto al espaciotiempo, surgirían cuestiones tales como:
¿el espaciotiempo existe como entidad física o como entidad matemática?, ¿qué tipo
de argumentos pueden darse a favor de uno u otro modo de existencia?
(2) Como existencia en términos de hecho, un modo de ser real. De aquí que el
decidir sobre la existencia o no del espaciotiempo, tendría que ver directamente con
las condiciones específicas, propias de una ciencia particular, que se establecen para
postular la existencia de objetos. En el caso de la física, surgirían cuestiones como: ¿las
verificaciones experimentales de la TGR corresponden a condiciones suficientes para
postular la existencia del espaciotiempo?, ¿puede observarse el espaciotiempo?, ¿éste
está definido con base a los procedimientos de control y medición propios de la física?
(3) La evidencia empírica de ambas teorías es distinta, a pesar de que haya ciertos
aspectos, como el corrimiento del perihelio de Mercurio, que ambas teorías predicen,
una de manera más precisa que la otra (Will 1993).
(4) La relación entre dichas teorías es una «relación por paso al límite». Lo que
corresponde a una relación interteórica entre las teorías. Por ejemplo: la mecánica
newtoniana es una aproximación de la relatividad especial; la gravitación universal es
una aproximación de la TGR. Con lo que puede establecerse la relación, atendiendo al
esquema de Fritz Rohrlich (1988), tal que: «Dadas dos teorías T1 y T2, puede definirse
un cierto parámetro característico p como cociente entre los valores de dos variables de
igual dimensión, ambas pertenecientes a T1, de modo tal que la formulación
matemática M(T2) de T2 se obtiene aplicando el límite matemático p→0 a la
formulación
parámetro característico
matemáticap, M(T1)
que pertenece
de T1:a lim
M(T1), desaparece en M(T2)».
p→0M(T1)=M(T2). De este modo, el
(Lombardi y
Pérez Ransanz 2012, 137)
(5) Hay tanto inconmensurabilidad entre ambas teorías, como que parte de sus
aspectos empíricos son distintos, de acuerdo a su propio esquema conceptual.
En atención al tipo de relación al límite, se puede decir que ésta existe entre la
gravitación universal de Newton y la TGR cuando, por ejemplo, se hacen ciertas
suposiciones en los tensores de Ricci, métrico y de distribución de materia-energía de
las ecuaciones de campo de Einstein (2), y se obtiene la ecuación de la gravitación
universal de Newton.
Dado todo lo anterior, se puede esquematizar el pluralismo ontológico del espacio
y el tiempo entre la teoría de la gravitación universal (TGU) y la teoría general de la
relatividad (TGR) que se muestra en la figura 1.
4. CONCLUSIONES
El problema del realismo sobre el espaciotiempo está lejos de ser un problema
resuelto. Si bien, pueden darse razones a favor de una postura substancialista o una
relacionista, a la vez de otro tipo de posturas realistas como la semántica o la
estructuralista, sin embargo, cada una tiene sus propios inconvenientes. Con esto,
puede identificarse que dentro de la misma teoría (TGR) conviven distintas
concepciones ontológicas, las cuales puede que no afecten el poder explicativo de la
teoría, pero aun así, inciden directamente en ciertas problemáticas filosóficas que la
misma teoría trae a colación. A su vez, la no unicidad de los conceptos de espacio y
tiempo en la TGR, a pesar de su poder explicativo en términos de la entidad
espaciotiempo, permite plantear las cuestiones: ¿El espaciotiempo existe, es un ente
del mundo, o sólo corresponde a un parámetro de la TGR? ¿La mejor aproximación al
problema de la naturaleza del espacio y el tiempo, la ofrece el pluralismo ontológico?
Por lo que hemos podido ver, la respuesta a la última cuestión resulta afirmativa.
Con el esquema realista tipo pluralismo ontológico, pudimos identificar que existe
un genuino pluralismo ontológico del espacio y el tiempo entre dos teorías: la
gravitación universal y la relatividad general.
El problema sobre la naturaleza del espacio y el tiempo, de si éstos son entes del
mundo, parece ser todavía un problema abierto, sin embargo, consideramos que la
mejor manera de ser realistas con respecto a dichos entes, la ofrece una aproximación
pluralista.
5. REFERENCIAS BIBLIOGRÁFICAS
Abbagnano, Nicola (2000), Diccionario de filosofía, México, F.C.E.
Dorato, Mauro (2008), «Is Structural Spacetime Realism Relationism in Disguise? The
Supererogatory Nature of the substantivalism/Relationism Debate», in Dennis Dieks (ed.) The
Ontology of Spacetime II, The Netherlands, Elsiever, 17-37.
Einstein, Albert (1915/2005), «Fundamentos de la teoría de la relatividad general», en José Manuel
Sánchez Ron (ed.) Einstein. Obra esencial, Madrid, Crítica, 435-493.
Hacyan, Shahen (2013), Relatividad para estudiantes de física, México, F.C.E.
Kuhn, Thomas (1962), The Structure of Scientific Revolutions, Chicago, University of Chicago Press.
Lombardi, Olimpia y Pérez Ransanz, Ana Rosa (2012), Los múltiples mundos de la ciencia. Un realismo
pluralista y su aplicación a la filosofía de la física, México, Siglo XXI Editores.
Maudlin, Tim (2012), Philosophy of Physics. Space and Time, Princeton, New Jersey, Princeton
University Press.
Pooley, Oliver (2013), «Substantivalist and Relationalist Approaches to Spacetime», in Robert
Batterman (ed.) Philosophy of Physics, New York, Oxford University Press, 522-586.
Putnam, Hilary (1988), Razón, verdad, historia, Madrid, Tecnos.
Putnam, Hilary (1994), Las mil caras del realismo, Barcelona, Paidós.
Rickles, Dean (2008), Symmetry, Structure and Spacetime, The Netherlands, Elsiever.
Rohrlich, Fritz (1988), «Pluralistic Ontology and Theory Reduction in the Physical Sciences», The
British Journal of Philosophy of Science 39, 295-312.
Rovelli, Carlo (2008), «The Disappearance of Space and Time», in Dennis Dieks (ed.) The Ontology of
Spacetime, The Netherlands, Elsiever, 25-36.
Will, C. M. (1993), Theory and Experiment in Gravitational Physics, Cambridge, Cambridge University
Press.
INCERTIDUMBRE Y SIMULTANEIDAD: OPERACIONES DE
RACIONALIDAD EN UN MODELO COMPLEJO PARA LAS
DECISIONES EVALUATIVAS
decidir
con base en criterios que actualicen nuestro manejo de la información y hacer un
mejor uso de la racionalidad como el sistema mental de supervivencia y adaptación
cuya incertidumbre y estados de alerta, nos permiten evaluar cada contexto,
establecer propósitos y tomar decisiones.
Las perspectivas de la razón ante la incertidumbre requieren de la búsqueda
empírica de estabilidad y ajustes de la conducta. Un requisito para lograr la
estabilidad es que, como afirma Prigogine (2009, 91): «se requieren simultáneamente
las condiciones en los límites macroscópicos y las fluctuaciones elementales. Se
impone una descripción plural que ponga en juego puntos de vista y modos de
descripción distintos». Conviene ver al sistema mental que produce cambios sobre las
experiencias de la racionalidad ante el futuro a través de las decisiones y sus
operaciones evaluativas: analizar desde la complejidad la relación contexto-agente
para alcanzar un propósito.
Veamos el papel de la incertidumbre y la simultaneidad en tres grupos teóricos a
partir de datos experimentales. El primero es en las categorías de la filosofía de la
ciencia y los métodos complejos; sobre los conceptos de observación empírica, en las
previsiones de la racionalidad ante el tiempo y sus características (King, González y
González de Luna 2004). El segundo es de las neurociencias y la consolidación de las
teorías que buscan comprender la dinámica agente-contexto mediante decisiones
evaluativas que orientan naturalmente la conducta hacia fines o metas. Y el tercero es
la experimentación en la Nueva Economía Institucional (North 1995) que muestra que
los modelos mentales estructuran al comportamiento decisorio de los agentes en el
conglomerado social a partir de horizontes mentales compartidos que se articulan
funcionalmente bajo la reglamentación de las instituciones.
Herbert Simon (1997) señala que la dinámica económica depende del correr del
tiempo que no involucra a todos los agentes y que habría que buscar una teoría que
pudiera manejar esta discontinuidad entre tres opciones: una atención exógena a las
influencias fortuitas, aplicar argumentos marginales de costo y beneficio poco
factibles y estudiar empíricamente los cambios en la atención humana para
desarrollar las determinantes sociales de su atención:
The dynamics of the economic system depends on the timing of this shift, which of course
will not be made by all persons simultaneously. To handle this discontinuity, and others like
it, in our theories, we have to choose among three alternatives. The first is to treat
attentional shift as an exogenous random shock. The second is to apply the familiar marginal
arguments: We allocate just as much effort to scanning the horizon for newly important
variables as is justified by the marginal value (in terms ofimproved decision making) of the
scanning (…) The third alternative is to study human attention and shifts of attention
empirically in order to develop a theory of individual and social determinants of focus of
attention. (Simon 1997, 406-407)
Wenceslao J. González (2003) especialista en la obra de Simon, ubica una de las
limitaciones previstas por Simon en la incapacidad de ver al mismo tiempo
(simultanear) los factores que habrían de considerarse en la toma de decisiones. Así,
para comprender el concepto de simultaneidad, vale tomar la definición de Bas C. Van
Fraassen (1978, 64): «la simultaneidad es la existencia de lo múltiple en el mismo
tiempo. Pero no podemos percibir el tiempo mismo».
En esta investigación uno de los resultados a partir del concepto de simultaneidad
es que todo principio, axioma o condición, expresa en sí a esa simultaneidad, pues
cada afirmación o enunciado opera directamente en el mismo momento del
enunciado, en el mismo instante que señala la relación, a las partes o elementos que
incluye, poniéndolos juntos en una dinámica que activamente prevé como operación,
aun cuando tal simultaneidad no implique la presencia física de las partes sino, al
menos, sus representaciones; es factor estructural operativo de la razón y, el concepto
es necesario para la comprensión de la naturaleza de las decisiones ante el tiempo y
por tanto tiene, simultáneamente, esa condición ontológica funcional. En las
decisiones, la flecha del tiempo explica las intenciones del agente hacia las metas. Los
procesos cerebrales vigilan desde su supervivencia hasta las representaciones
socioculturales en las que ensaya futuros al preguntarse: después de lo sucedido ¿qué
hay que hacer?
2. LA INCERTIDUMBRE ESTÁ EN LA RELACIÓN AGENTE-CONTEXTO
Cuando un agente decisor ancla rígidamente su racionalidad en un discurso,
substituye los procesos de racionalidad con dogmas de militancia y creencias que
conducen a la desadaptación; no se integrará a la dinámica del contexto y las
conductas no abrirán el escenario de la supervivencia ni biológica ni sociocultural en
los sistemas institucionalizados vigentes. Vale decir que se necesita evaluar
racionalmente y decidir porque debemos resolver críticamente nuestras acciones en
el contexto con soluciones y estrategias de adaptación (Kahneman, Slovic y Tversky
1982).
La racionalidad es el uso natural de la razón en la búsqueda inteligente de fines
adaptativos que merecen ser designados (Rescher 1988; 1999, 85). Debido a la
incertidumbre esa racionalidad plantea la pregunta ineludible para el agente decisor
sobre cuáles propósitos futuros tendrá que perseguir.
El estudio contemporáneo de la neuroeconomía indaga la relación entre las
funciones cerebrales y el comportamiento humano, pues no bastan las perspectivas
teóricas deterministas ni las de maximización y riesgo pues, como Pascal había
previsto con cierto realismo, «la toma de decisiones debe combinar información sobre
la probabilidad de un suceso con el valor de ese suceso para el sujeto» (Glimcher 2009,
207)
La economía ha propuesto diferentes modos de racionalidad para las decisiones
(González 2003, Villoro 2009, Bonome 2009) que responden a diferentes prioridades
teóricas. Según el modelo de racionalidad limitada de Simon (1981, 1997), el agente
usa la racionalidad instrumental para hacer elecciones adaptativas, seleccionando los
medios más adecuados para la consecución de los fines que persigue, aparentemente
dados.
Nicholas Rescher (1999) observa que en el proceso decisorio es necesario evaluar
los fines mismos para establecer su adecuación, y en consecuencia es preciso
considerar una racionalidad evaluativa con respecto a los fines que acompañan la
toma de decisiones. Hay así una racionalidad evaluativa-normativa (la selección de lo
preferible) que va más allá de la racionalidad fáctica-descriptiva (la selección de los
medios eficientes).
5. CONCLUSIONES
Los dos conceptos descritos permiten buscar y proponer la relación entre las
operaciones decisorias naturales y socioculturales en su dimensión conjunta y
proyectarla en un modelo prescriptivo y normativo para ensayar posibles relaciones
entre cada una de las partes consideradas por las disciplinas que el tema convoca.
Operaciones y conceptos funcionales y estructurales configuran la oportunidad de
ensayar un modelo y una propuesta teórica sobre las decisiones.
La propuesta de un modelo de flujo para las decisiones con racionalidad evaluativa
exige la exposición de las operaciones y funciones ejecutivas en que se relacionan las
capacidades y los bagajes del agente. Las decisiones evaluativas como propósito de
investigación científica, exigen la dinámica interdisciplinaria de métodos, conceptos y
diálogo teórico desde donde es posible buscar realistamente una visión compleja,
actualizada e integral sobre la forma en que la sociedad propicia su propio
comportamiento a partir de los propósitos que se plantean sus agentes vivos. Agentes
que a su vez replantean la estructura social, la del conocimiento y la del curso de las
ciencias que aún no hemos comprendido a cabalidad y que con la Simultaneidad y la
Incertidumbre como categorías se podrán rescatar para aportar claridad y capitalizar
la experiencia para un comportamiento futuro, decidido mediante procesos
evaluativos cada vez más sólidos.
6. REFERENCIAS BIBLIOGRÁFICAS
Bonome, María (2009), La racionalidad en la toma de decisiones: Análisis de la teoría de la decisión de
Herbert A. Simon, Serie de metodología y filosofía de la ciencia, 1.ª edición, La Coruña, Netbiblo,
S.L.
Beck, Ulrich (1999), World Risk Society, 1.ª edición, Cambridge, Polity Press.
Giordano Noyola, Magdalena, Mercadillo Caballero, Roberto Emmanuele y Díaz Gómez, José Luis
(2016) Cerebro, subjetividad y libre albedrío. Discusiones interdisciplinarias sobre neuroética, 1.ª
edición, México, Herder.
Glimcher, Paul W. (2009), Decisiones, incertidumbre y el cerebro. La ciencia de la neuroeconomía, 1.ª
edición, México, FCE.
González, Wenceslao José (ed.) (2003), «Racionalidad y economía: de la racionalidad de la economía
como ciencia a la racionalidad de los agentes económicos», en González, Wenceslao José (ed.)
Racionalidad, historicidad y predicción en Herbert A. Simon, 1.ª edición, A Coruña, Netbiblo, S.L. 65
96
Hansson, Sven Ove (1996), «Decision Making under Great Uncertainty», Philosophy of the Social
Sciences, (26), 3, 369-386.
Kahneman, Daniel, Slovic, Paul, & Tversky, Amos (1982), Judgment Under Uncertainty: Heuristics and
Biases, 1.ª edición, New York, Cambridge University Press.
King, Patricia, González, Juan C. y González de Luna, Eduardo (eds.) (2014), Ciencias cognitivas y
filosofía. Entre la cooperación y la integración, Serie «Las ciencias sociales», 1.ª edición, México,
Porrúa/Universidad Autónoma de Querétaro.
Morin, Edgar (1996), Introducción al pensamiento complejo, 2.ª edición, Barcelona, Gedisa.
North, Douglas (1995), Instituciones, cambio institucional y desempeño económico,
México, FCE.
Prigogine, Ilya (2009), ¿Tan sólo una ilusión? Una exploración del caos al orden, 6.ª edición,
Barcelona, Tusquets.
Rescher, Nicholas (1988), Rationality. A Philosophical into the Nature and the Rationale of Reason, Oxford,
Oxford University Press.
–(1999), Razón y valores en la era científico tecnológica, Serie «Pensamiento contemporáneo, 59, 1.ª
edición, Barcelona, Paidós.
Simon, Herbert (1981), The Sciences of the Artificial, Cambridge, Mass., MIT Press.
– (1997) Models of Bounded Rationality, Volume 3, Empirically Grounded Economic Reason,
Cambridge, Massachusetts, MIT press.
Van Fraassen, Bas, (1978) Introducción a la filosofía del tiempo y el espacio, 1.ª edición, Barcelona,
Editorial Labor.
Verdejo García, Antonio y Bechara, Antoine (2010)«Neuropsicología de las funciones ejecutivas»,
Psicothema (22), 2, 227-235.
Vilar, Sergio, (1997) La nueva racionalidad. Comprender la complejidad con métodos transdisciplinarios, 1.ª
edición, Barcelona, Ed. Kairós.
Villoro, Luis (2009), Creer, saber, conocer, 14.ª edición, México, Siglo XXI.
Von Bertalanffy, Ludwig (1993), Teoría general de los sistemas, 7.ª edición, México, FCE.
[1] Además de la vinculación entre conjuntos, vale precisar que cuando se hable aquí de «operación» y
de «operación racional», del latín operatio, señalaremos la acción de relacionar conjuntos en una forma
específica y al mismo tiempo. Una operación racional constituye procedimientos definidos que se ejecutan
con la capacidad de la razón a partir de los parámetros que se tienen y que se hace bajo la condición de
simultaneidad.
APROXIMACIONES DESDE LA FILOSOFÍA
AL ESTUDIO DE LA ALUCINACIÓN
Y SU RELACIÓN CON LA PERCEPCIÓN
INTRODUCCIÓN
a alucinación es considerada un tema de interés en la filosofía de la percepción
L
1.
estado
por
su vez un
varias
mental
razones.
que ocurre
Quizá cuando
la principal
no hay
es un
queobjeto
al caracterizarse
físico presente,
como unque
pero
5. REFERENCIAS BIBLIOGRÁFICAS
Assad, Ghazi, (1990), Hallucinations in Clinical Psychiatry: A Guide for Mental Health Professionals, 1.a
edición, New York, Brunner.
Byrne, Alex (2001), «Intentionalism defending», The Philosophical Review 110 (2), 199-240.
Crane, Timothy (2007), «El problema de la percepción en la filosofía analítica», en David Chico y
Moisés Barroso (eds.) Pluralidad de la Filosofía Analítica, Madrid-México: Teoría cum Praxis, 217
258.
Crane, Timothy (2011), The Problem of Perception. Edward Zalta (Ed.) The Stanford Encyclopedia of
Philosophy. http://plato.stanford.edu/entries/perception-problem.
Dorsch, Fabian (2010), «The unity of hallucinations», Phenomenology and the Cognitive Sciences (9),
171-191.
Farkas, Katalin (2013), «A sense of reality», en Fiona Macpherson y Dimitris Platchias (eds.)
Hallucinations: philosophy and psychology, Cambridge, MIT Press, 399-415.
González, Juan, C. (2004), «El argumento de la alucinación revisitado», Acta Comportamentalia: Revista
Latina de Análisis de Comportamiento 12,55-73.
González, Juan, C. (2005), «La Conciencia Perceptiva y la Conciencia Alucinada», en Escotto–
Alejandro Córdoba y Israel Grande-García (eds.) Enfoques sobre el Estudio de la Conciencia, FES–
Zaragoza, Editorial UNAM, 325-368.
Martin, Michael (2004), «The limits of self-awareness», Philosophical Studies 120 (1-3), 37-89.
Merleau-Ponty, Merleau (1975), Fenomenología de la Percepción, México, Trillas.
Pereira, Francisco (2011), «Percepción, discriminabilidad introspectiva y el principio de factor
común», Filosofía Unisinos 12 (2), 114-135.
Pereira, Francisco (2014), «Representacionalismo, disyuntivismo y el problema de la alucinación»,
Filosofía Unisinos 15 (1), 35-51.
Sass, Louis (2014), «Delusion and double bookkeeping» en Thomas Fuchs, Thiemo Breyer y
Christoph Mundt (eds.), Kart Jarpers» Philosophy and Psychopathology, New York & Heidelberg,
Springer, 125-147.
Soteriou, Matthew (2009), «The disjunctive theory of perception», en Edward Zalta (Ed.), The
Stanford Encyclopedia of Philosophy. http://plato.stanford.edu/entries/perception-disjunctive/
Thompson, Brad (2008), «Representationalism and the argument from hallucination», Pacific
philosophical quarterly 89,384-412.
Vega-Encabo, Jesús (2010), «Hallucinations for disjunctivists», Phenomenology and the Cognitive
Science (9), 281-293.
SER CRÍTICOS CON NUESTROS PRINCIPIOS CRÍTICOS
INTRODUCCIÓN
los artículo
algunos
ste principios
teóricos
naceargumentativos
de
de la
lasospecha de que los argumentadores ordinarios, así como
E
1.
argumentación, tienen una concepción de las normas y
como estándares absolutos de una razón
universal. En el contexto de la argumentación común y corriente, quizá esto sea más
evidente en el caso de las acusaciones que unos hablantes se hacen a otros de haber
cometido una falacia. Especialmente cuando se trata de hablantes con cierto nivel
cultural y que han tenido algún contacto con manuales divulgativos de
argumentación, las acusaciones de falacias suelen ser tajantes: un hablante afirma que
otro ha cometido una falacia sin proporcionar explicación alguna ni dar pie a la
discusión sobre si tal acusación es cierta o no. El juicio sobre la comisión de una falacia
se presume objetivo e inapelable.
En ámbitos más académicos y teóricos, también nos encontramos en ocasiones con
esta concepción subyacente de los estándares argumentativos como objetivamente
válidos. En el caso de ciertos teóricos esto incluso se presenta de manera explícita,
como explicaré en la siguiente sección a propósito de la teoría pragmadialéctica. Dado
que esta postura viene apoyada por una justificación teórica, me concentraré en la
crítica de esta propuesta, en lugar de los hábitos de los hablantes.
Después, en la tercera sección, mostraré algunos de los cambios que se han
producido en nuestros estándares argumentativos a lo largo de la historia. Aunque
solo podré presentar unos pocos ejemplos, creo que son buenos indicios de que
nuestros estándares argumentativos no son fijos ni universales.
Sin embargo, si nuestros estándares argumentativos no son ideales universales de
la razón, ¿entonces qué son? Para sugerir una respuesta a esta pregunta, en la última
sección expondré algunas propuestas que se han hecho en teoría de la argumentación
para explicar el fundamento normativo de tales estándares.
5. REFERENCIAS BIBLIOGRÁFICAS
Crouch, Margaret A. (1991), «Feminist philosophy and the genetic fallacy», Hypatia 6(2), 104-117.
Crouch, Margaret A. (1993), «A «limited» defense of the genetic fallacy», Metaphilosophy 24(3), 227
240.
Eemeren, Frans H. van, Grootendorst, Rob (1988), «Rationale for a pragma-dialectical perspective»,
Argumentation 2(1), 271-291.
Eemeren, Frans H. van, Grootendorst, Rob (1992), Argumentation, communication, and fallacies: A
pragma-dialectical perspective, Hillsdale (NJ), Lawrence Erlbaum Associates.
Eemeren, Frans H. van, Grootendorst, Rob (2004), A systematic theory of argumentation, New York,
Cambridge University Press.
Eemeren, Frans H. van, Meuffels, Bert, Verburg, Mariël (2000), «The (un)reasonableness of ad
hominem fallacies», Journal of Language and Social Psychology 19(4), 416-435.
Flew, Antony (1975), Thinking about thinking, London, Fontana.
Keith, William (1995), «Argument practices», Argumentation 9(1), 163-179.
MacCormick, Neil (2016), Retórica y Estado de Derecho: Una teoría del razonamiento jurídico, Lima,
Palestra.
Popa, Eugen O. (2016), «Criticism without fundamental principles», Informal Logic 36(2), 192-216.
Vega Reñón, Luis (2013), La fauna de las falacias, Madrid, Trotta.
Walton, Douglas (1998), Ad hominem arguments, Tuscaloosa, University of Alabama Press.
Whately, Richard (1827), Elements of logic, 2.ª edición, Londres, J. Mawman.
ENSEÑANZA Y EXPLICITACIÓN DE TEORÍAS SUBYACENTES EL
CASO DE LA TEORÍA
DE LA SELECCIÓN NATURAL
1. INTRODUCCIÓN
E n el contexto de investigación didáctica se suele concluir que el pensamiento
finalista o teleológico constituye un rasgo central de los razonamientos
intuitivos de los estudiantes que dificultan la comprensión de la teoría de la
selección natural (TSN en adelante) (González Galli y Meinardi 2015, 2011;
Kampourakis 2014). En este sentido una buena parte de los investigadores han
asumido que los supuestos finalistas que subyacen al pensamiento de los estudiantes
son erróneos desde el punto de vista científico y que el objetivo didáctico sería su
eliminación y remplazo por supuestos más coherentes con la biología actual (p.e.,
Fernández y Sanjosé 2007; Settlage 1994). Este enfoque se basa en alguna versión de la
teoría del cambio conceptual (véase Jiménez Aleixandre 1991) y son pocas las
investigaciones y propuestas didácticas que se han apartado de esta línea en relación
con el problema del finalismo para el aprendizaje de la biología evolutiva (p.e., Zohar
y Ginossar 1998).
En el ámbito de la filosofía de la ciencia la situación es más compleja ya que el
estatus de las nociones teleológicas en la biología actual es al menos problemático
(Allen, Beckoff y Lauder 1998). Por ejemplo, algunos autores sostienen que las mismas
explicaciones de la adaptación basadas en la teoría de la selección natural suponen
una forma de teleología (Caponi 2003; Ginnobili 2009, 2011; Ruse 2000; Short 2002;
entre otros).
En este trabajo sugeriremos que, contra lo que se suele asumir en las mencionadas
investigaciones didácticas, el lenguaje y los modos de pensar teleológicos ocupan un
rol central en las teorías evolutivas y que, por lo tanto, el objetivo didáctico no puede
ser la eliminación de dicho estilo de pensamiento (González Galli y Meinardi 2016,
2011; Jungwirth 1975; Zohar y Ginossar 1998). Nos basaremos para esto en la
reconstrucción de la teoría de la selección natural, y la presentación adecuada de su
«base empírica», ya realizada por uno de nosotros (Ginnobili, 2010, 2012).
Estos análisis nos servirán de fundamento para proponer algunos lineamentos
didácticos generales y, de un modo general, para revisar el rol en las clases de ciencias
de las concepciones previas de los estudiantes y las analogías que pueden establecerse
entre dichas concepciones y las ideas de la historia de la ciencia (De Vecchi y Giordan
2006; Johsua y Dupin 2005; Pozo y Gómez Crespo 2004).
4. CONCLUSIONES
El enfoque dominante frente al sesgo teleológico del pensamiento de los
estudiantes ha consistido su eliminación total. En línea con nuestros análisis previos,
nuestra propuesta no tiende dicha eliminación del pensamiento teleológico sino a su
revisión y control. Más específicamente, ofrecemos los argumentos de una estrategia
que supone la modificación de la biología funcional intuitiva promiscua de los
estudiantes. Para esto, hemos tomado por un lado una identificación metateórica del
explanandum de TSN y, como ejemplo, las estrategias que utilizó el mismo Darwin,
quien, desde nuestro punto de vista, se vio en un problema frente a sus
contemporáneos análogo al que se enfrenta el profesor de biología.
Por supuesto, los argumentos que esgrimimos podrían funcionar a modo de guía
de trabajo para posteriores investigaciones, y para la construcción de material
didáctico aplicable al aula que pueda ser evaluado para determinar su adecuación,
algo que obviamente consideramos posible.
5. REFERENCIAS BIBLIOGRÁFICAS
Allen, Colin, Bekoff, Marc, Lauder, George (1998), Nature’s purposes. Analyses of Function and Design in
Biology, Cambridge, MIT Press.
Alters, Brian J., Craig, Nelson (2002), «Perspective: Teaching Evolution in Higher Education»,
Evolution 56(10), 1891-1901.
Ariza, Yefrin, Lorenzano, Pablo, Adúriz-Bravo, Agustín (2016a), «Meta-Theoretical Contributions to
the Constitution of a Model-Based Didactics of Science», Science & Education 25(7), 747-773.
Ariza, Yefrin, Lorenzano, Pablo, Adúriz-Bravo, Agustín (2016b), «Una perspectiva estructuralista de
la enseñanza modelo-teórica de las ciencias», Revista Latinoamericana de Estudios Educativos
12(1), 11-38.
Caponi, Gustavo. (2003), «Darwin: entre Paley y Demócrito», História, Ciências, Saúde. Manguinhos
10(3), 993-1023.
Caponi, Gustavo. (2011), La segunda agenda darwiniana. Contribución preliminar a una historia del
programa adaptacionista, México D.F., Centro de estudios filosóficos, políticos y sociales Vicente
Lombardo Toledano.
Darwin, Charles R. (1859), On the origin of species by means ofnatural selection, Londres, John Murray.
Darwin, Charles R. (1861), «On the two forms, or dimorphic condition, in the species of Primula, and
on their remarkable sexual relations», Journal of the Proceedings of the Linnean Society of London
(Botany), VI, 77-96.
Darwin, Charles R. (1876), The effects ofcross and selffertilisation in the vegetable kingdom, London, John
Murray.
Darwin, Charles R. (1877a), The Various Contrivances by which Orchids are Fertilised by Insects, London,
John Murray.
Darwin, Charles R. (1877b), The different forms of flowers on plants of the same species, London, John
Murray.
Darwin, Charles R. (1909), «Essay of 1844». En F. Darwin (Ed.), The Foundations of The Origin of Species.
Two Essays Written in 1842 and 1844, Cambridge, Cambridge University Press, 57-255.
Dawkins, Richard (2008), El cuento del antepasado, Barcelona, Antoni Bosch.
De Vecchi, Gérard, Giordan, André (2006), Guía práctica para la enseñanza científica, Sevilla, Díada
Driver, Rosalind, Guesne, Edith, Tiberghien, Andreé (1992), Ideas científicas en la infancia y la
adolescencia, Madrid, Morata.
Estany, Anna (1993), Introducción a la filosofía de la ciencia, Barcelona, Grijalbo-Mondadori.
Fernández, Juan J., Sanjosé, Vicente (2007), «Permanencia de ideas alternativas sobre Evolución de
las Especies en la población culta no especializada», Didáctica de las Ciencias Experimentales y
Sociales 21, 119-128.
Futuyma, Douglas (2009), Evolution, Sunderland, Sinauer.
Gallego Jiménez, Alicia, Muñoz Muñoz, Alberto (2015), «Análisis de las hipótesis evolutivas en
alumnos de Educación Secundaria y Bachillerato», Revista Electrónica de Enseñanza de las Ciencias
14(1), 35-54.
Ginnobili, Santiago (2009), «Adaptación y función. El papel de los conceptos funcionales en la teoría
de la selección natural darwiniana», Ludus Vitalis 17(31), 3-24.
Ginnobili, Santiago (2010), «La teoría de la selección natural darwiniana», THEORIA. An International
Journal for Theory, History and Foundations of Science 25(1), 37-58.
Ginnobili, Santiago (2011), «Función como concepto teórico», Scientiae Studia 9(4), 847-880.
Ginnobili, Santiago (2012), «Reconstrucción estructuralista de la teoría de la selección natural»,
Ágora – Papeles de Filosofía 31(2),143-169.
Ginnobili, Santiago (2013), «La utilidad de las flores: el movimiento del diseño inteligente y la
biología contemporánea», Filosofia e história da biologia 8(2), 341-359.
Ginnobili, Santiago (2014), «La inconmensurabilidad empírica entre la teoría de la selección natural
darwiniana y el diseño inteligente de la teología natural», THEORIA. An International Journal for
Theory, History and Foundations of Science 29(3), 375-394.
González Galli, Leonardo, Meinardi, Elsa (2011), «The Role of Teleological Thinking in Learning the
Darwinian Model of Evolution», Evolution: Education and Outreach 4(1), 145-152.
González Galli, Leonardo, Meinardi, Elsa (2008). «Ni darwinianos ni lamarckianos: finalistas»,
Memorias de las VIII Jornadas Nacionales – III Congreso Internacional de Enseñanza de la Biología.
González Galli, Leonardo, Meinardi, Elsa (2015), «Obstáculos para el aprendizaje del modelo de
evolución por selección natural en estudiantes de escuela secundaria de Argentina», Ciencia &
Educação 21(1), 101-122.
González Galli, Leonardo, Meinardi, Elsa (2016), «Obstáculos para el aprendizaje del modelo de
evolución por selección natural», en Cuvi, N., Servilla, E., Ruiz, R., Puig Samper, M. (Eds.),
Evolucionismo en América y Europa. Antropología, Biología, Política y Educación, Quito, Ediciones
Doce Calles-FLACSO Ecuador-Universidad Autónoma de México-Pontificia Universidad Católica
de Ecuador.
Gould, Stephen J. (1977), Ontogeny and Phylogeny, Cambridge, MA, Belknap Press.
Gregory, T. Ryan (2009), «Understanding Natural Selection: Essential Concepts and Common
Misconceptions», Evolution: Education and Outreach 2(2), 156-175.
Hempel, Carl G. (1965), The logic of functional analysis. In Aspects. of scientific explanation, New York,
Free Press.
Jiménez Aleixandre, María P. (1991), «Cambiando las ideas sobre el cambio biológico», Enseñanza de
las ciencias 9(3), 248-256.
Joshua, Samuel, Dupin, Jean-Jacques (2005), Introducción a la Didáctica de las Ciencias y la Matemática,
Buenos Aires, Ediciones Colihue.
Jungwirth, Ehud (1975), «The problem of teleology in biology as a problem of biology-teacher
education», Journal ofbiological education 9(6), 243-246.
Kampourakis Kostas, Zogza, Vasso (2006), «Students’preconceptions about evolution: How accurate
is the Characterization as «Lamarckian» when considering the history of evolutionary
thought?» Science & Education 16(3-5), 393-422.
Kampourakis, Kostas (2014), Understanding evolution, Cambridge, Cambridge University Press.
Kelemen, Deborah. (1999), «The scope of teleological thinking in preschool children», Cognition
70(3), 241-272.
Kirby, William (1836), On the Power, Wisdom and Goodness ofGod, as Manifested in the Creation ofAnimals,
and in their History, Habits and Instincts, Philadelphia, Carey, Lea & Blanchard.
Limoges, Camille (1970), La sélection naturelle: étude sur la première constitution concept, Paris, Presses
Universitaires de France.
Limoges, Camille (1972), Introduction, en Linné (Ed.), L’equilibre de la nature, Paris, Vrin, 7-22.
Mahner, Martin, Bunge, Mario (2000), Fundamentos de Biofilosofía, México D.F., Siglo XXI.
Millikan, Ruth Garrett (1989), «In defense of proper functions», Philosophy of Science 56, 288-302.
Paley, William (1809), Natural Theology (12th ed.), Londres, J. Faulder.
Posner, George, Strike, Kenneth, Hewson, Peter, Gertzog, William (1982), «Accommodation of a
scientific conception: Towards a theory of conceptual change», Science Education 66, 211-227.
Pozo, Juan I., Gómez Crespo, Miguel A. (1998), Aprender y enseñar ciencias, Madrid, Morata.
Pozo, Juan I., Gómez Crespo, Miguel A. (2004), Aprender y enseñar ciencia, Madrid, Morata.
Rosengren, Karl, Brem, Sarah, Evans, E. Margareth, Sinatra, Gale (Eds.) (2012), Evolution Challenges.
Integrating Research and Practice in Teaching and Learning About Evolution, Dordrecht, Springer.
Ruse, Michael. (2000), «Teleology: Yesterday, Today, and Tomorrow?» Studies in History and
Philosophy of Biological & Biomedical Sciences 31(1), 213-232.
Ruse, Michael (1994), Tomándose a Darwin en serio, Barcelona, Salvat.
Settlage, John (1994). «Conceptions of natural selection: A snapshot of the sense-making process»,
Journal ofResearch in Science Teaching 31(5), 449-457.
Short, Thomas L. (2002), «Darwin’s concept of final cause: neither new nor trivial», Biology and
Philosophy 17(3), 322-340.
Shtulman, Andrew (2006), «Qualitative differences between naïve and scientific theories of
evolution», Cognitive Psychology 52, 170-194.
Stamos, David N. (2008), Evolution and the Big Questions. Sex, Race and other Matters, Malden, Blackwell.
Zohar, Anat, Ginossar, Shlomit (1998), «Lifting the Taboo Regarding Teleology and
Anthropomorphism in Biology. Education-Heretical Suggestions», Science Education 82(6), 679
697.
1 Esta denominación ha sido cuestionada por diversas razones (véase, González Galli y Meinardi 2008 y
Kampourakis y Zogza 2006).
LA TEORÍA DE LA COMUNICACIÓN DE SHANNON EN
GENÉTICA MOLECULAR: UNENFOQUE REDUCCIONISTA
INFORMACIONAL
1. INTRODUCCIÓN
E l uso de términos informacionales derivados de la teoría de la comunicación
de la biología
enunciada por Claude
molecular y (Shannon 1949), es muy habitual en los campos
Shannon
la genética. Conceptos como «transcripción»,
«transmisión», «mensaje», o «codificación», se utilizan con gran profusión en los
trabajos de estas disciplinas. No en vano, la idea de la transferencia de información
desde el ADN a las proteínas constituye el núcleo conceptual del Dogma Central de la
biología molecular contemporánea. El propio Crick, codescubridor de la estructura de
la doble hélice de ADN, empleaba el término «información» ya en 1958 para referirse a
la especificación de la secuencia de aminoácidos de la proteína, considerando que los
tres factores que intervenían en la síntesis proteica eran «el flujo de energía, el flujo de
materia y el flujo de información» (Crick 1958, 143-144).
Los científicos que contribuyeron al descubrimiento de la naturaleza del código
genético tenían presente en sus mentes la analogía del proceso informativo de manera
constante, como refleja el vocabulario que utilizaban para dar a conocer los resultados
de sus investigaciones. El empleo de dichas analogías fue fundamental para el diseño
de las hipótesis de partida con las que trabajaban, conduciendo en muchas ocasiones a
resultados satisfactorios, aunque con notables excepciones: en 1955, George Gamow y
sus colaboradores intentaron predecir las propiedades de un código genético aún por
descifrar mediante la propuesta de posibles esquemas de codificación y transferencia
de la información entre el ADN y las proteínas. Pero aunque sus modelos matemáticos
eran consistentes y plausibles, finalmente resultaron ser todos ellos incorrectos
(Gamow et al, 1955). Este hecho supuso una primera muestra de las dificultades
existentes para enunciar una teoría biológica basada en los postulados de la teoría de
la comunicación.
En la actualidad, la justificación epistémica del uso de términos informacionales
en biología continúa siendo objeto de permanente debate, fundamentado en la escasez
de desarrollos teóricos y aplicaciones prácticas derivados de su uso. Esta discusión
podría estructurarse a partir de dos visiones contrapuestas del problema. Por un lado,
desde una óptica compartida por una mayoría de biólogos, que llamaremos aquí
«reduccionista informacional», los sistemas vivientes son interpretados como una
realización concreta de un sistema general de comunicación, capaz de procesar y
transmitir la información desde los ácidos nucleicos a las proteínas, mediante su
compleja maquinaria bioquímica. En contraste, desde una perspectiva
«teleosemántica», no sería posible entender los procesos de transmisión de
información sin atender al significado, es decir, al contenido mental que le es dado al
conjunto de signos que constituyen un mensaje, lo que podría implicar alguna forma
de conocimiento de carácter intencional de difícil encaje en el ámbito de la biología
molecular. A continuación se intentará justificar, a modo de esbozo, que bajo la citada
concepción reduccionista informacional subyace una visión pseudo-mecanicista de los
procesos bioquímicos, que es en realidad una herramienta metodológica basada en el
razonamiento diagramático y el empleo de las matemáticas aplicadas como disciplina
lingüística.
3. REFERENCIAS BIBLIOGRÁFICAS
Bechtel, William, Abrahamsen, Adele (2005), «Explanation: A Mechanist Alternative», Studies in
History and Philosophy of Biological and Biomedical Sciences (36), 421-41.
Crick, Francis (1958), «On Protein Synthesis», Simp. Soc. Exp. Biol. (12), 139-163.
Gamow, George, Rich, Alexander, Ycas, Martynas (1955), «The problem of information transfer
from the nucleic acids to proteins», Advances in Biological and Medical Physics (4), 23-68.
Hegarty, Mary (1992), «Mental animation: Inferring motion from static displays of mechanical
systems», Journal ofExperimental Psychology: Learning, Memory, and Cognition. (18), 1084-1102.
Mayr, Ernst (1988), Toward a new philosophy of biology, observations of an evolutionist, Cambridge,
Harvard University Press.
Shannon Claude E., Weaver Warren (1949), The mathematical theory of communication, Urbana,
University of Illinois Press.
Terzis George, Arp Robert (2011), Information and Living Systems, Philosophical and Scientific
Perspectives, MIT Press.
LAS CREENCIAS EN LA MEDICINA
TRADICIONAL MEXICANACOMO GENERADORAS DE
IDENTIDAD
1. INTRODUCCIÓN
E n esta investigación de carácter teórico, se estudiará la medicina tradicional
identidad alrededor
mexicana de esta.de analizar y exponer la naturaleza generadora de
con el objetivo
2. DESARROLLO
De acuerdo con Edmund Pellegrino, la filosofía de la medicina es la reflexión
crítica sobre el contenido, método, conceptos y presupuestos particulares de la
medicina en cuanto ésta trasciende sus propios componentes (técnica, arte,
comunicación y aspectos éticos). En torno de esta modalidad de la relación filosofía
medicina, se debe destacar que su procedimiento analítico se centra en la práctica
clínica con su correspondiente finalidad: sanar, cuidar y asistir al necesitado, con el
objeto de restaurar su salud o atender su condición de quebranto, sin abandonarlo
jamás (García 2007, 26).
En cuanto a la historia de la medicina, Cavazos y Carrillo (2009, 2) dividen su
estudio en tres grandes períodos:
1. La medicina primitiva y las civilizaciones antiguas: En donde las diferentes
nociones culturales sobre salud y enfermedad se hacían evidentes en cada
sociedad y bajo ciertos preceptos mágico-religiosos.
2. Etapa racional de la medicina: En la que destacan los avances filosóficos griegos,
romanos y árabes en el desarrollo de los conocimientos médicos.
3. Etapa científica de la medicina: En donde se da por sentada la cientificidad médica
a través de una serie de descubrimientos y avances en conocimientos biomédicos,
procesos de diagnóstico, tratamientos terapéuticos y especialidades médicas.
La Organización Mundial de la Salud (2015), define la medicina tradicional como el
conjunto de conocimientos, aptitudes y prácticas basados en teorías, creencias y
experiencias indígenas de las diferentes culturas, sean o no explicables, usados para el
mantenimiento de la salud, así como para la prevención, el diagnóstico, la mejora o el
tratamiento de enfermedades físicas o mentales.
De acuerdo con la OMS (2013), los patrones de utilización varían en función de
diversos factores tales como la cultura, la importancia histórica y los reglamentos. Sin
embargo, no existe un método uniforme para examinar dichos patrones, por lo que es
conveniente considerar la manera en que las personas la utilizan a partir de tres
pautas generales:
Utilización en países en los que la medicina tradicional es una de las principales
prácticas de atención de salud: En estos países, la disponibilidad de los servicios de
salud basados en la medicina convencional y/o el acceso a esos servicios suele ser, en
general, limitada (Abdullahi 2011, 120).
1. Utilización de medicina tradicional debida a influencias culturales e históricas.
2. Utilización de la medicina tradicional como terapia complementaria.
3. Hablando específicamente de la medicina tradicional indígena, esta se conoce
como el sistema de conceptos, creencias, prácticas y recursos materiales y
simbólicos, destinado a la atención de diversos padecimientos y procesos
desequilibrantes, cuyo origen se remonta a las culturas prehispánicas pero que,
como toda institución social, ha variado en el curso de los siglos, influida por otras
culturas médicas (española, africana, moderna), por los cambios en el perfil
epidemiológico de las poblaciones y por factores no médicos de diversa índole
(económicos, ecológicos, religiosos) (Zolla 2005, 63).
En México, la medicina tradicional es uno de los pilares fundamentales de la
cultura indígena y no solo sirve para el cuidado de la salud individual, sino también
para la defensa de los derechos colectivos, ya que, al preservarlo, las comunidades
refuerzan su cultura originaria y hacen frente a la explotación desmedida de los
recursos naturales en su territorio (Unidad de Apoyo a las Comunidades Indígenas
2011, 11).
Existen diversas expresiones para designar este tipo de medicina: medicina
indígena, medicina paralela, medicina popular, medicina natural, medicina
herbolaria, etnomedicina, etc., sin embargo, se prefiere la denominación «medicina
tradicional» universalizada por la Organización Mundial de la Salud (OMS), guiados
por la convicción de que se trata de una manifestación de la cultura médica que
mantiene estrechos nexos con el pasado, una cultura médica en la que la transmisión
oral de los conocimientos ancestrales ha jugado un papel esencial. Con variantes, pero
también con semejanzas abundantes y significativas, esta medicina se encuentra
presente en todos los pueblos o grupos etnolingüísticos de México (Zolla 2005, 64).
Según Ricoeur (2006, 969), las tradiciones son «contenidos transmitidos en tanto
que portadores de sentido; colocan todas las herencias recibidas en el orden de lo
simbólico y, virtualmente, en una dimensión lingüística y textual. En este aspecto, las
tradiciones son «proposiciones de sentido». De acuerdo con Thompson (1998, 50), hay
cuatro posibles direcciones en que la tradición es portadora de sentido: en su aspecto
hermenéutico, en el normativo, en el de legitimación y el de identidad.
De esta manera, los saberes médicos tradicionales están dotados de las siguientes
propiedades generadoras de sentido: no son impermeables al cambio; son un lugar de
memoria; su legado de ningún modo es uniforme, nacen y se recrean cotidianamente
desde y a partir del mundo directo de la experiencia; son una síntesis compleja de
diversos estratos culturales, y por último, se configuran por un proceso de
apropiación desigual de los bienes económicos y culturales (González 2011, 40).
En diversas poblaciones de México, se considera que una parte de la historia de la
medicina sigue vigente, que aun estando sujetas al margen de un sistema sociopolítico
hegemónico, han logrado conservar sus prácticas médicas basadas en sus propias
creencias, como es el caso de los Tzotziles y Tzeltales en México (López & Teodoro
2006, 20). Incluso la salud y la enfermedad, en algunos lugares, aún son entendidas
desde el enfoque mágico-religioso, pues este aún prevalece en las sociedades
occidentales. Por otro lado, la medicina tradicional se fundamenta en una visión
integral u holística del ser humano y del llamado proceso de salud-enfermedad. Así,
algunas de las principales características que distinguen a la medicina tradicional de
las demás prácticas médicas (Romero & Montiel 2014, 23), son:
1. Mantiene un sistema de conocimientos empíricos sustentados en la experiencia
directa de las personas, mediante la observación de la naturaleza, las relaciones
sociales y los fundamentos filosóficos, éticos, morales y religiosos o sobrenaturales
de la comunidad en la que viven.
2. Los elementos que utiliza son plantas, minerales, animales u objetos asociados a
rituales, técnicas manuales y/o espirituales.
3. El conocimiento generado es construido sobre sí mismo y socialmente transmitido
de forma oral por tradición de generación a generación.
Respecto a la salud, es un continuo ir y venir entre el bienestar físico, emocional y
mental, determinada por el contexto, concepción mediante la cual se le podría
contemplar también como una construcción social donde lo sociocultural coexiste
junto a la dimensión biológica. Por tanto, la elección para el tratamiento de la salud de
las personas podría implicar sus creencias, sus actitudes, sus intenciones influidas por
el medio y la cultura en la que viven (Romero & Montiel 2014, 25).
Por todo lo anterior, es preciso destacar la relevancia que la existencia de la
medicina tradicional y su impacto en la generación de identidad, tiene en el
sentimiento de pertenencia. Siendo un creador de unión social e ideológico, que funge
como pilar para la defensa de los derechos colectivos e indígenas.
Sin embargo, hoy en día dos cambios básicos están ocurriendo bajo el impacto de
la globalización. En los países llamados modernos, no solamente las instituciones
públicas sino la vida cotidiana se están distanciando del peso de la tradición, mientras
que otras sociedades, que hasta ahora habían permanecido más tradicionales, se
encuentran en proceso de destradicionalización (Giddens 1999).
Así como para Bonfil (1970, 60), la verdadera cultura mexicana sería la expresión
libre de las diferentes culturas, la medicina mexicana en las zonas indígenas sería la
libre expresión de la medicina biomédica y de la tradicional, dentro de un proceso de
desarrollo integral autónomo. De esta manera, el sistema de salud de México
respondería a las demandas de autonomía y respeto de los pueblos indígenas,
apoyando el desarrollo de modelos de atención intercultural definidos por y no sólo
para ellos.
3. REFERENCIAS BIBLIOGRÁFICAS
Abdullahi, Alh Auwalu (2011), «Trends and challenges of traditional medicine in Africa», African
Journal of Traditional, Complementary and Alternative Medicine, 8, 115-123. Obtenido de
http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3252714
Bonfil Batalla, Guillermo (1970), «Del indigenismo de la revolución a la antropología crítica», Eso
que llaman antropología mexicana (págs. 39-65). México: Nuestro Tiempo, S.A.
Bonfil Batalla, Guillermos (1985), «Una cultura popular para un época de crisis», Conferencia inédita
impartida en el Museo del Estado «Hombre, Naturaleza y Cultura». Mexicali.
Cavazos, Luis, Carrillo, José G. (2009), Historia y evolución de la medicina. México: Manual Moderno.
García, Jair (2007). Filosofía de la Medicina. Recuperado el 2016, de Cátedra de Historia y Filosofía de la
Medicina: http://es.slideshare.net/jairgarcia/clase-filosofia-de-la-medicina
Giddens, Anthony (1999), Runaway world: tradition. Recuperado el 2016, de conferencia pra la BBC
World Service: http://webpages.ull.es/users/vesteban/giddens.htm
González, Lilián (2011), «Medicina tradicional en México desde la filosofía», Pensamiento
Universitario, 39-47.
López, José R., Teodoro, José M. (2006), «La cosmovisión indígena Tzotzil y Tzeltal a través de la
relación salud-enfermedad en el contexto de la medicina tradicional indígena», Ra Ximhai, 15
26.
Oficina Regional de la OMS para el Pacífico Occidental (2012), The regional strategy for traditional
medicina in the Western Pacific (2011-2012). Manila.
Organización Mundial de la Salud (2015), Medicina tradicional: Definiciones. Recuperado el 2016, de
Organización
http://www.who.int/topics/traditional_medicine/definitions/es/#
Panamericana de la Salud (2000), Medicina natural y tradicional. Recuperado el 2016, de
http://www.paho.org/cub/index.php?option=com_content&view=article&id=289&Itemid=282
Ricoeur, Paul (2006), «Tiempo y narración», III. El tiempo narrado, Siglo XXI, 969.
Romero, A., Montiel, E. (2014), «Creencias y actitudes hacia la medicina tradicional mexicana en las
poblaciones de Zacualtipán y Pachuca, Hidalgo», Boletín Científico-Educación y Salud, 2(4).
Ruiz, Everardo (2014), «El riesgo y el rescate. La tradición y la innovación como factores de
identidad», Revista Digital Universitaria, 15(2).
Thompson, John (1998), Los media y la modernidad. Una teoría de los medios de comunicación, Barcelona:
Paidós (Comunicación).
UNAM (2009), Biblioteca Digital de la Medicina Tradicional Mexicana. Recuperado el 2016, de
http://www.medicinatradicionalmexicana.unam.mx/presenta.html
Unidad de Apoyo a las Comunidades Indígenas (2011), «Medicina tradicional indígena: efectividad a
prueba», Tukari, 3(16).
Zolla, Carlos (2005), «La medicina tradicional indígena en el México actual», Arqueología Mexicana.
Salud y enfermedad en el México antiguo, 62-65.
UNA SOLUCIÓN A LA PARADOJA
DEL VINO-AGUA DEVON MISES
RESUMEN: Se presenta una solución a una de las más importantes objeciones que se han
presentado en contra de la teoría clásica de la probabilidad: la «paradoja del vino-agua». Fue
presentada originalmente por Richard Von Mises en 1939 en su obra Probability, Statistics and
Truth, aunque parece que es una variante de un problema planteado en 1886 por J. Von Kries.
En particular, la paradoja ataca el llamado Principio de Indiferencia («Dadas las posibilidades de
que ocurra cierto evento, si no hay razón alguna para preferir una posibilidad sobre la otra,
entonces se pueden considerar equiprobables») mostrando que su aplicación conduce a
resultados contradictorios o paradójicos. Sin embargo, si el ataque resultara exitoso, tendría
consecuencias mucho más profundas que solo cuestionar la teoría clásica de la probabilidad, ya
que cualquier cálculo de probabilidades consistente parece depender del principio de
indiferencia en cierta medida.
Se muestra que hay una forma consistente de aplicar el principio de indiferencia en los
problemas presentados que conduce a una respuesta única y que no lleva a los resultados
contradictorios que le atribuyen Von Kries y Von Mises. La aplicación se puede generalizar
para resolver otros problemas similares, como el problema de los cubos de Van Fraassen.
Palabras clave: principio de indiferencia; principio de razón insuficiente; probabilidad.
(1:1)…(§?4:$?3)…(§?2:”?3)…(2: !?2).
Donde el primer elemento de cada coordenada (x,y) corresponde a la proporción
de agua/vino y el segundo a la de vino/agua correspondiente.
Esta relación entre las proporciones se puede representar mediante una función,
si x representa la proporción de agua/vino, entonces y = 1/ x, será la proporción
correspondiente de vino/agua.
REFERENCIAS BIBLIOGRÁFICAS
Burock, Mark (2005), «Indifference, sample space, and the wine/water paradox». URL:
http://philsci-archive.pitt.edu/2487/1/Indifference_new_…Burock_2005.pdf. Consultado: 14
febrero, 2017.
Deakin, Michael A.B. (2006), «The wine/water paradox: background, provenance and proposed
solutions», The Australasian Mathematical Society Gazette (33:2), 200-205.
Keynes, John. Maynard (1921), A treatise on probability, London, Macmillan and Co. Limited.
Kries, J. von (1886), Die Principien der Wahrscheinlichkeits-Rechnung: Eine logische Untersuchung,
Tübingen, Mohr.
Mikkelson, J. M. (2004), «Dissolving the wine/water paradox», The British Journal of Philosophy of
Science (Vol 55, No. 1), 137-145.
Van Fraassen, B.C. (1989), Laws and symmetry, Oxford, Oxford University Press.
Von Mises, Richard (1957), Probability, Statistics and Truth, New York, Dover Publications, Inc.
(Publicado originalmente en Von Mises, Richard (1939), Probability, Statistics and Truth, London,
William Hodge and Company, Limited.)
[1] Esta paradoja es una variante de un ejemplo de J. Von Kries (1886; citado por Keynes 1921, 96-97): si
la masa de un cuerpo es la unidad, entonces la densidad está dada por el inverso del volumen, es decir, si d
es la densidad y v el volumen, se tiene que v = 1/d. Cuando v está entre 1 y 2, d está entre 1 y !?2, así que
usando argumentos análogos a los dados en la paradoja del agua/vino se obtienen resultados
contradictorios.
CIENCIA SOCIAL, SOCIOTECNOLOGÍA Y PRAXIS. UNA
APROXIMACIÓN BUNGEANA A LOS ESTILOS DE LA LABOR
SOCIOLÓGICA
1. INTRODUCCIÓN
E l objetivo de la presente ponencia es mostrar la utilidad de aplicar la distinción
general
entre ciencia
de lay tecnología
ciencia– a –cuestión
las esta tratada en el ámbito de la filosofía
disciplinas usualmente enmarcadas en las
denominadas ciencias sociales. Se mostrará la necesidad de distinguir en los estudios e
investigaciones enfocadas al ámbito de lo social entre la ciencia social y la tecnología
social o sociotecnología. A este efecto se expondrán los desarrollos teóricos de Mario
Bunge sobre la cuestión, que acuña el término sociotecnología y justifica la existencia
de dicha distinción en el seno de la ciencia social.
También se mostrará la utilidad de esta distinción a la hora de comprender
correctamente las reflexiones sociológicas –como las de Merton y Boudon– sobre las
labores a las que se dedican los sociólogos. Además, se discutirá la pertinencia de la
distinción entre la ciencia social y la sociotecnología a la hora de generar un criterio
de demarcación con el que, por una parte, se logre una identificación más fidedigna de
los distintos estilos de la labor sociológica mencionados, y que, de otra parte, sirva de
base a la hora de comprender cómo han de establecerse las relaciones entre las
distintas disciplinas que conviven en el seno de las ciencias sociales –tanto aquellas
enfocadas a la generación de conocimientos sobre la realidad social, como bien es el
caso de la sociología; como a aquellas enfocadas a la transformación de esta, como
pueda ser el caso de trabajo social–
3. LA DISTINCIÓN CIENCIA/TECNOLOGÍA
En el ámbito disciplinar de la sociología es común observar por parte de diversos
autores la identificación de la ciencia con la tecnología, o lo que es lo mismo, la
asunción de que la ciencia sigue los mismos principios que guían a la tecnología. Esta
idea puede ser rastreada en el pensamiento de Habermas y sus coetáneos de la Escuela
de Fráncfort, y se encuentra también presente en el «trasfondo» de las Sociologías del
Conocimiento Científico –véase Lamo de Espinosa, González García, y Torres Alberto
(1994) y Habermas (1986)–.
Una falsa identificación que confunde el cometido de la ciencia –el estudio de la
realidad– con el de la tecnología –la transformación de la realidad– (Bunge 2015b, 80), y
que pasa por alto la desigual influencia de los valores en ambas. Los valores influyen
tanto en la ciencia como en la tecnología. Sin embargo, éstos no afectan al producto
de la ciencia (el conocimiento científico), justo al contrario que en la tecnología donde
los valores delimitan tanto el alcance como la naturaleza de los diseños y artefactos
(Bunge 1999, 326; Merton 1985, 137) Además, el objetivo que motiva ambos campos es
distinto: la ciencia se encuentra motivada por los CUDEOS de Merton (comunismo,
universalismo, desinterés, escepticismo organizado); la tecnología por el criterio
pragmático de la utilidad (Bunge 1999, 84, 2015a, 100-101).
La distinción antes expuesta puede precisarse aún más atendiendo a la
clasificación realizada por Bunge de los tipos de conocimiento que son al menos
parcialmente verdaderos. Como se puede ver en la Figura 1, el conocimiento generado
por las ciencias fácticas puede ser de carácter básico, aplicado o tecnológico, siendo
cada tipo de conocimiento generado por un campo de estudios distinto. Estos campos
se corresponderían, respectivamente, con el de la ciencia básica, ciencia aplicada y
tecnología.
Reelaboración del contenido en Hevia (2016) a partir de Bunge (1983, 212, 1999, 325).
5. UTILIDAD DEL ESQUEMA
El esquema presentado en la sección anterior resulta útil, entre otras cosas, para
entender correctamente las relaciones que hay –y que debería de haber– entre las
distintas disciplinas de lo social. Justificaré esta posición recurriendo a un ejemplo;
pensemos en una política pública cuyo objeto sea acabar con el consumo de drogas en
una región, como Castilla y León, la cual será generada desde su Consejería de
Sanidad. Antes de plantear siquiera un borrador del proyecto, aquellos promotores
del mismo tendrán que recurrir a conocimientos especializados sobre la materia. No
sólo harán uso de estudios específicos sobre la drogodependencia y el abuso de
sustancias (ciencia social aplicada), sino que también buscarán proyectos similares en
otras regiones o países para conocer cómo se ha enfocado el problema. En definitiva,
buscarán ver qué planes y actuaciones concretas han diseñado para así poder generar
un plan adaptado a la realidad de la región que solucione el problema de la forma más
eficiente y eficaz posible (sociotecnología). Una vez diseñado el plan (y aprobado en
este caso el proyecto) es preciso «echarlo a andar»: esto es, implementarlo. Para ello
la Consejería de Sanidad hará uso de sus funcionarios y equipos médicos, que serán
adiestrados para lograr que el plan de acción establecido funcione. Sea bueno o malo
el plan diseñado, el éxito que éste tenga dependerá en última instancia de estos
agentes (praxis). De hecho, en el éxito también juega un papel importante las
asunciones básicas que se hayan hecho sobre el fenómeno estudiado, ya que de ellas
dependerán las variables que han sido tenidas en cuenta por los científicos sociales
aplicados (ciencia social básica).
De esto se deriva que un mal análisis de la situación o problema social a resolver
conlleva un nefasto diseño, y por tanto a una desastrosa aplicación. Y a la inversa: la
falta de realimentación entre los campos puede llevar a que planes de acción que se
saben ineficaces por los agentes encargados de implementarlos sigan en vigor y no
sean reajustados conforme a la evidencia pragmática.
En base al esquema recogido en la Figura 2 es posible clasificar las distintas
disciplinas de lo social. Así, bajo la ciencia social básica podrían encajarse tanto la
macrosociología comparada, como la sociología analítica o la rational choice theory.
Bajo la ciencia social aplicada, podrían enmarcarse subdisciplinas como la sociología
del trabajo y la sociología del consumo. Dentro de la sociotecnología, tendrían encaje
la economía normativa y la ciencia política. Por último, bajo la praxis encajarían
disciplinas como el trabajo social o magisterio.
Esta clasificación, además, permite comprender mejor las disputas en torno a la
labor de los sociólogos. Por ejemplo, la disputa –señalada por Merton– entre la
sociología abstracta y la sociología concreta, no sería más que una disputa entre
científicos sociales básicos y científicos sociales aplicados; o la sociología de tipo
crítico de la que habla Boudon, cuyo objetivo de influenciar los procesos políticos para
transformar lo social la situaría dentro del campo de la sociotecnología.
6. CONCLUSIONES
La aplicación de la distinción entre ciencia y tecnología, como he mostrado en la
presente comunicación, resulta útil para entender la relación entre las disciplinas
dedicadas a lo social y para solucionar los conflictos en torno a la labor realizada por
los sociólogos. El esquema de inspiración bungeana que distingue cuatro campos del
conocimiento en lo social permite –aplicada al caso de las disciplinas de lo social–
clarificar y solucionar las disputas y problemáticas tratadas por Merton y Boudon. Así,
resuelve la problemática del análisis de la influencia de los valores en la labor de los
sociólogos, ya que tal y como se ha explicitado dicha influencia es consustancial a
campos como la ciencia social aplicada y la sociotecnología. Además, el esquema
propuesto ayuda a entender la ordenación de las disciplinas de lo social, y constituye
una base potente para entender la producción de conocimientos en los cuatro campos
señalados y la realimentación entre los mismos.
7. REFERENCIAS BIBLIOGRÁFICAS
Aligica, P.D., y R. Herritt (2009), «Epistemology, social technology, and expert judgement: Olaf
Helmer’s contribution to futures research», Futures 41 (5), 253-259.
Boudon, Raymond (2004), «La sociología que realmente importa», Papers. Revista de sociología, 72,
215-226.
Bunge, Mario (1983), Treatise on Basic Philosophy. Volume 6: Epistemology and Methodology II:
Understanding the World, Dordrecht, Reidel.
Bunge, Mario (1985), Treatise on Basic Philosophy. Volume 7: Epistemology and Methodology III: Philosophy
of Science and Technology. Part II. Life Science, Social Science and Technology, Dordrecht, Reidel.
Bunge, Mario (1999), Las Ciencias Sociales en discusión. Una perspectiva filosófica, Buenos Aires,
Editorial Sudamericana.
Bunge, Mario (2015a), Crítica de la nueva sociología de la ciencia, Pamplona, Editorial Laetoli.
Bunge, Mario (2015b), Evaluando filosofías. Una protesta, una propuesta y respuestas a cuestiones
filosóficas descuidadas, Barcelona, Editorial Gedisa.
Habermas, Jürgen (1986), Ciencia y técnica como «ideología», Madrid, TECNOS.
Helmer, Olaf (1966), Social technology, New York, Basic Books Inc.
Hevia Martínez, Germán (2016), «Aportaciones de Mario Bunge a la Sociología de la Ciencia. Breve
esbozo del programa de la sociología científica», Trabajo Final de Grado. Disponible en:
http://hdl.handle.net/10366/132449.
Lamo de Espinosa, Emilio, José María González García, y Cristóbal Torres Alberto (1994), La sociología
del conocimiento y de la ciencia, Madrid, Alianza Editorial.
Merton, Robert K. (1973) «Social Conflict Over Styles of Sociological Work». En The Sociology of
Science. Theoretical and Empirical Investigations, Chicago, University of Chicago Press, 47-69.
Merton, Robert K. (1985), La sociología de la ciencia, 1. Investigaciones teóricas y empíricas, Madrid,
Alianza Editorial.
LA NOCIÓN DE PROPOSICIÓN LÓGICA DE BERNARD BOLZANO
INTRODUCCIÓN
E l presente trabajo tiene como objetivo explorar brevemente la noción de
concepto de la
proposición lógica
lógicademoderna
BernardyBolzano, como concepción originaria de este
como fundamental para las nociones de verdad
y juicio. La idea general es revitalizar su pensamiento y aportar a las revisiones
actuales que se están desarrollando respecto de sus distintas aportaciones en
matemáticas y, muy especialmente, en lógica.
Como observación preliminar, debemos señalar que el presente trabajo se
circunscribe en una investigación mayor que hemos realizado en filosofía de la lógica
y que tenía como propósito explorar –en los principales enfoques de la lógica– el
problema acerca de cuál es la unidad mínima o básica de conocimiento verdadero. En lógica
y filosofía la noción de proposición ha tenido aquí un papel central, especialmente para
el análisis de argumentos ya que hace referencia directa a la relación que existe entre
los argumentos informales, del lenguaje natural u ordinario, y su reconstrucción en
argumentos de los lenguajes formales. A su vez, esta cuestión nos remite a la pregunta
acerca de cuál es la clase de ítem del que debe ocuparse primeramente la lógica, y que
ha sido ampliamente tratado desde una perspectiva sintáctica o semántica, y sólo muy
recientemente desde una perspectiva pragmática (Haack 1991; Rahman et al. 2018). La
pregunta por la proposición nos lleva a revisar las distintas interpretaciones que se
han dado del concepto de proposición, su función y aserción en los diferentes
enfoques de la lógica. En este caso, aquí exploraremos brevemente la concepción
clásica de Bernard Bolzano.
Desde las primeras consideraciones de Frege al problema, la fundamentación de
las proposiciones lógicas en toda argumentación se ha sustentado en la fuerza de la
prueba o demostración, que establece la conexión de verdades a través de las cadenas
de inferencia dadas en un argumento. Según Frege, el conocimiento de una verdad
científica radica –en última instancia– en una prueba lógica pura, “la cual,
prescindiendo de las características particulares de la cosa, sólo se funda en las leyes
sobre las que descansa todo conocimiento” (Frege 1971, 3). Así, la importancia de la
noción de proposición abarca una cuestión filosófica fundamental referente a la
relación que se establece entre lenguaje y mundo (también, entre lenguaje y
pensamiento). Los diferentes sistemas lógicos formales han intentado capturar dicha
relación.
Con Bolzano (1837), Brentano (1874) y Frege (1879), se comienza ha discutir sobre
qué es lo que hace verdadero el enunciado del que se habla con verdad. Sus
respuestas, que marcaban el acento distintamente en el juicio o en la proposición, los
llevaron a concordar en la idea de que el único camino posible a seguir era el del
análisis lógico del lenguaje. Con ellos se inauguraba un nuevo tratamiento lógico
filosófico del problema para una nueva lógica.
El pensamiento de Bolzano aparece aquí como la primera configuración moderna
y global de la noción de proposición, que más adelante será sistematizada por Gottlob
Frege y Alfred Tarski. Sus ideas acerca de la proposición lógica tienen una relación
obvia con sus reflexiones acerca de las nociones de verdad y juicio, ya que en estos tres
autores la teoría de la proposición lógica es subsidiaria de una teoría mayor acerca del
significado.
CONSIDERACIONES FINALES
El pensamiento de Bolzano es una base fundamental de las concepciones clásicas o
estándar de la lógica. En el predominan aspectos referentes al tratamiento de las
condiciones de verdad para el conocimiento (lógico). Principalmente, en su enfoque, la
verdad tiene un carácter de producto de esa estructura lógica concebida a priori y la
proposición tiene el carácter de contenido en el juicio. Las proposiciones son
concebidas como pertenecientes a una estructura que hoy entenderíamos como
“booleana”. Esto influenciará, principalmente, a Frege que las entenderá a partir de
los valores de verdad y de las constantes lógicas del sistema, que son consideradas
como operadores sobre esos valores. Para Bolzano, dicha estructura proposicional
será un hecho matemático que proporciona las normas del razonamiento como una
evidencia general y que determina cómo debe configurarse el análisis lógico.
REFERENCIAS BIBLIOGRÁFICAS
Aristotle (1938), “On Interpretation”, In Aristotle: The Categories. On Interpretation. Prior Analytics, H. P.
Cooke and Hugh Tredennick (Eds.), Cambridge, Massachusetts, Harvard University Press, pp.
112–81.
Barnes, J. (1993), Aristotle Posterior Analytics, Oxford, Oxford at Clarendon Press.
Benny, M. and Reck, E. H. (2005), Gottlob Frege. Critical Assessments of Leading Philosophers, London,
Routledge.
Bolzano, Bernard (1973), Theory of Science, Dordrecht, D. Reidel Publishing Company.
Brentano, Franz (1981), The Theory ofCategories, The Hague, Martinus Nijhoff Publishers.
Brentano, Franz (2009), Psychology from an Empirical Standpoint, London, Routledge.
Chomsky, Noam (2009), Cartesian Linguistics. A Chapter in the History of Rationalist Thought, New York,
Cambridge University Press.
Corcoran, J. (1974), «Aristotle’s Natural Deduction System», en J. Corcoran (Ed.), Ancient Logic and its
Modern Interpretation, Dordrecht/Boston, D. Reidel Publishing Company, págs.85-131.
Frege, Gottlob (1972a), Conceptografía, Ciudad de México, Ed. Universidad Nacional Autónoma de
México.
Frege, Gottlob (1972b), Lógica y semántica, Valparaíso, Ediciones Universitarias de Valparaíso.
Frege, Gottlob (1972c), Los fundamentos de la aritmética, Barcelona, Editorial Laia.
Frege, Gottlob (1973d), «Función y concepto», en Estudios sobre semántica, Barcelona, Editorial Ariel.
Frege, Gottlob (1980), Philosophical and Mathematical Correspondence, edited by Gottfried Gabriel et
al., Oxford, Basil Blackwell.
Frege, Gottlob (1984), El Pensamiento: Una investigación lógica, Madrid, Editorial Tecnos.
Haack, Susan (1991), La filosofía de las lógicas, Madrid, Cátedra.
Lukasiewicz, J. (1957), Aristotle’s Syllogistic, Oxford, Oxford University Press.
Rahman, S. et al. (2018), Immanent Reasoning or Equality in Action. A Plaidoyer for the Play Level,
Dordrecht, Springer International Publishing.
Tarski, Alfred (1972), La concepción semántica de la verdad y los fundamentos de la semántica, Buenos
Aires, Ediciones Nueva Visión.
Tomás de Aquino (2001), Suma de teología, Madrid, Ed. Biblioteca de Autores Cristianos.
CODIFICACIÓN LÓGICA DE EXPECTATIVAS
EN EL DIAGRAMA DE MARLO
Supongamos que un niño descubre que el diez es divisible por cinco. Ahora sabe
seguro que parte de los pares es divisible por cinco. Por eso codifica pb como teoría
confirmada en una parte del conjunto de los pares: «Algunos pares son divisibles por
cinco» [«Figura 1»]. Sin embargo, aún no puede afirmar ni negar que el resto sea o no
divisible por cinco. Por eso mantiene la incertidumbre en la parte superior del
modelo: p¬b? Por otra parte, en su mente es posible suponer, al margen de los
números pares, números divisibles por cinco. Por eso se expresa el margen b¬p?
(López 2016b, 338). Para comprender las inferencias del niño debemos olvidar que en
la mente del profesor no existen interrogaciones.
Por otra parte, las proposiciones expresan de forma explícita en qué medida es
razonable esperar B a partir de A y de forma implícita en qué medida lo es esperar A a
partir de B. Los casos de la figura 2 expresan las cuatro relaciones elementales que
puede comunicar una proposición entre un sujeto y un predicado. Si luego sustituimos
S y P por variables de un sistema dicotómico obtenemos dieciséis estructuras básicas.
En el diagrama azul expresa seguridad, verde probabilidad y amarillo incertidumbre.
Caso 3. Solo: solo los que padecen esquizofrenia alucinan voces. Explícitamente
negamos la posibilidad de escuchar voces sin esquizofrenia, por lo que no hay P al
margen del sujeto. También afirma que es seguro que parte de los que padecen
esquizofrenia escuchan voces, pero deja abierta la posibilidad de padecer
esquizofrenia sin escuchar voces (?).
3. SÍNTESIS DE MODELOS
Si dos proposiciones comparten la misma variable sujeto pueden sintetizarse en
un único modelo (López 2014, 51). Al sintetizar tendremos dos modelos universales,
dos particulares, o uno universal y otro particular [«Figura 4»].
Según el principio de identidad, dos cosas iguales a una tercera son iguales entre
sí.
Según el principio de incertidumbre, lo incierto en las premisas debe permanecer
incierto en las conclusiones.
El principio de distinción nos obliga a separar provisionalmente las variables
cuando no existe razón suficiente para asociarlas como unidad, aunque si no se
expresa explícitamente que señalan objetos incompatibles, su combinación es
probable.
Por ejemplo, si A nos informa de que en la Isla de los monos hay un primate que
caza ratones y B de que hay un primate que limpia la fruta, es probable que se trate de
la misma especie. Es más que posible, pero no necesario.
Como hemos dicho, la síntesis de dos modelos requiere que ambos compartan una
variable que ejercerá de término medio. Si además queremos obtener una conclusión
necesaria, dicho término medio ha de ser tomado al menos en uno de los modelos de
forma universal, es decir, que al ser formalizado tiene que contener un subíndice x.
Un ejemplo de síntesis parcial como el que expresa la Figura 4 sería: Si tengo ansiedad
duermo mal (). Si tengo depresión tengo ansiedad (). Luego si tengo depresión duermo
mal ().
4. EXCLUSIÓN DE MODELOS
Figura 5. Leyes de la exclusión
Propiedad el autor.
La exclusión resulta complicada para los alumnos, así como para el profesorado
del centro con el que he formado grupos de trabajo. No obstante, cualquier inferencia
necesaria por exclusión es realizable mediante síntesis transformando el modelo
conveniente. Y viceversa. En el ejemplo de la Figura 6 podríamos operar por identidad
transformando la primera premisa en: si algo no tiene plumas no puede ser un ave. En
este caso obtendríamos que parte de los que no tienen plumas son ovíparos aplicando
las reglas de la síntesis parcial.
5. CONCLUSIONES
El Diagrama de Marlo es una herramienta que ya se ha mostrado muy eficaz en el
aula con los silogismos (López 2015,51) y hay motivos para pensar que puede resultar
igualmente rentable su uso con lógica de predicados y proposiciones. Como afirma
Címbora (2017, 54) «El Diagrama de Marlo permite resolver de forma intuitiva y
conforme al sentido común cualquier problema de la lógica de primer orden, además
de permitir representar con el mismo procedimiento, como ya vimos, inferencias
probables».
6. REFERENCIAS BIBLIOGRÁFICAS
Címbora Acosta, Guillermo (2017), «Lógica en el Diagrama de Marlo, tratando de hacer evidente la
certeza», en Actas II Congreso internacional de la Red española de Filosofía, Vol. VII, 1.ª edición.
Madrid, Red española de filosofía, 41-55.
López Aznar, Marcos B. (2016a), «Innovación en didáctica de la lógica: el Diagrama de Marlo», en T.
Mijangos (Coord.), Rutas didácticas y de investigación en lógica, argumentación y pensamiento
crítico,1.ª edición. México, Academia Mexicana de la Lógica. Libro electrónico, 105-154.
López Aznar, Marcos B. (2016b). «Lógica de predicados en el diagrama de Marlo, cuando razonar se
convierte en un juego de niños», en Rafael V. Orden, Juan José García y Emma Ingala (eds.)
Diotima o de la dificultad de enseñar filosofía, 1.ª edición. Madrid, Escolar y mayo, 335-356.
López Aznar, Marcos B. (2015). «Adiós a bArbArA y Venn. Lógica de predicados en el diagrama»,
Paideia. Revista de Filosofía y didáctica filosófica (102), 35-52.
López Aznar, Marcos B. (2014). Cálculo lógico de modelos proposicionales: la revolución del silogismo en el
Diagrama de Marlo, 1.ª edición, Pamplona, Círculo Rojo.
PROPUESTA DE UN MODELO INFERENCIAL
DE EXPECTATIVAS EN RED
(1) Marcos Bautista López Aznar, I.E.S. Pablo Neruda, Huelva, España
pensamosdistintorazonamosigual@gmail.com
RESUMEN: Las Redes de Expectativas Marlo combinan los principios de la inferencia lógica y
de la probabilidad matemática para generar un modelo en el que las conclusiones de los
razonamientos pueden ser verdaderas, falsas, probables o inciertas en distinto grado. Se
pretende representar la maya teórica y comunicable de expectativas con la que los sistemas
cognitivos codifican la experiencia a fin de anticipar presencias o ausencias a partir de las
presencias o ausencias de objetos relacionados.
Se organizan en árboles bayesianos con nodos objeto, nodos OR cualitativos y nodos AND
cuantitativos que transmiten la activación a sus asociados y sirven como antecedentes en los
esquemas de acción del sistema, aunque las redes tejen conjuntos en los que no siempre es
posible distinguir entre activación de receptores y de expectativas. Los conectores lógicos
comunican lo que es razonable esperar eliminando posibilidades de una red cuya complejidad
depende del número de conceptos en juego y del número de divisiones que hagamos en ellos.
Así, podemos juzgar un estímulo desde nada a totalmente ajustado a un criterio y aunque
categorías dicotómicas son económicas cognitivamente, no siempre son rentables.
Palabras clave: inteligencia lógica; redes neuronales; cognición; lógica; razonamiento; modelo
cognitivo.
Figura 2. Subsistema ��
Las figuras cuatro y cinco representan cómo se transmiten y combinan los tonos
de confianza sobre la verdad y la falsedad de los nodos.
4. CONCLUSIONES
Las redes de expectativas aportan una nueva perspectiva a nuestra comprensión
del razonamiento compatible con un modelo de redes asociacionista y pueden ser una
herramienta útil en la didáctica de la lógica. De hecho, surgen de la práctica en las
aulas del I.E.S. Pablo Neruda de Huelva, donde siguen probándose y desarrollándose
con alumnos de secundaria. Son intuitivas y promueven el sentido crítico al
evidenciar la diferencia entre hechos (rojo y azul) y suposiciones (amarillo).
Por otra parte, no solo he comprobado en mis clases que las redes sin nodos AND
facilitan enormemente la lógica de proposiciones en Bachillerato, sino que he podido
constatar que alumnos de cuarto de la ESO eran capaces de resolver problemas de
lógica de predicados con pocas horas de entrenamiento. E incluso estoy convencido de
que alumnos de primero de la ESO podrían enfrentarse a ellas con éxito, porque el
hecho de combinar códigos lingüísticos, numéricos y cromáticos pone el
razonamiento al alcance de la mayoría.
5. REFERENCIAS BIBLIOGRÁFICAS
López Aznar, Marcos B. (2016), «Innovación en didáctica de la lógica: el Diagrama de Marlo», en T.
Mijangos (Coord.), Rutas didácticas y de investigación en lógica, argumentación y pensamiento
crítico, 1.ª edición. México, Academia Mexicana de la Lógica. Libro electrónico, 105-154.
INFERENCIA LÓGICO MATEMÁTICA
EN REDES MARLO
P
1.
de los objetos
otros objetos.
Para ello teje redes de expectativas con nodos lógicos agrupados en conjuntos que
forman dominios de conocimiento.
Cada conjunto se compone de nodos OR, nodos objeto y nodos AND.
Un nodo OR sintetiza cualitativamente a todos los elementos del conjunto, siendo
activado por cualquiera de ellos. En el lenguaje natural designamos a los nodos OR con
expresiones del tipo hay algo, hay alguno, uno cualquiera, etc. Todas ellas poseen un
elevado grado de indeterminación y puede ser interesante señalar que, a veces, me
resulta complicado conseguir que parte del alumnado distinga el significado de alguno
cualquiera y de uno en concreto.
Un nodo objeto designa en las redes una combinación única y distinta de
cualidades que le diferencia del resto como unidad. Hay que insistir en que las redes
que presentamos señalan tipos teóricos de objetos. Así, si afirmamos más adelante que
hay dos objetos del tipo abc, será porque las diferencias entre dichos objetos no son
relevantes.
Igualmente, cuando ninguna de las diferencias entre los tipos de objetos que
componen un conjunto sea relevante, tomaremos al conjunto como objeto. Por
ejemplo, si omitimos las diferencias entre coches deportivos, coches todoterreno y
coches utilitarios tenemos coches.
Los objetos se expresan gráficamente mediante círculos y su número depende del
número de criterios que tengamos en cuenta para su elaboración, así como del
número de divisiones que hagamos de dichos criterios. Por ejemplo, si calificamos a
las personas por su grado de ajuste a los criterios inteligencia y bondad, tendremos
cuatro posibles tipos de personas cuando empleemos categorías dicotómicas
inteligente-no inteligente, bondadoso, no bondadoso. Sin embargo, tendríamos nueve
tipos de personas combinando categorías tricotómicas nada, algo, totalmente
inteligente o bondadosa.
Los nodos AND designan síntesis cuantitativas del conjunto: teóricas (en mi mesa
hay toda clase de bolígrafos) o numéricas (en mi mesa tengo todos mis bolígrafos).
La activación de cualquier nodo puede desencadenar un esquema de acción. Si hay
amenazas corre, pero ¿hay amenazas? Para facilitar las decisiones, cada nodo se activa
con una frecuencia o tono de color que expresa la seguridad de que sí, de que no y la
duda.
Un nodo activo afecta a la frecuencia de sus asociados, siguiendo la verdad y la
falsedad formas opuestas de propagación: la certeza de que sí asociada a un nodo OR
se divide entre los objetos asociados con él, lo mismo que se divide la seguridad de que
no es cierto un nodo AND entre los objetos que lo alimentan. La seguridad de que sí
ligada a los objetos se multiplica hacia los nodos AND, siendo la certeza de que hay de
todo inversamente proporcional al número de objetos que forman parte del todo. Sin
embargo, la seguridad de que no asociada a los objetos se multiplica hacia los nodos
OR, siendo la certeza de que no hay algo inversamente proporcional al número de
objetos que pueden ser algo. También es obvio que la verdad se propaga con el mismo
valor desde un objeto a un nodo OR, lo mismo que la falsedad de un objeto se
mantiene al pasar al nodo AND.
Figura 2. Propagación de la certeza por los nodos de un conjunto
En todo caso, tal y como vemos en la figura dos, depende del nodo de entrada
cómo sea la forma de propagación.
Es interesante hacer hincapié en que la falsedad de un nodo AND hace
probablemente falsos a cada uno de los objetos que lo alimentan. Por ejemplo, si voy a
casa de mis vecinos gemelos Pedro y Luis y veo a lo lejos salir a uno de ellos sin
distinguir cuál es, de lo único que tendré certeza en ese momento será de que no están
los dos en casa. Y si en ese instante me pregunto a mí mismo si estará Pedro en casa,
solo tendré motivos para pensar que probablemente no esté, lo mismo que si me
pregunto por Luis. Es posible que Pedro esté y es posible que Luis esté, pero no tengo
motivos para pensar que alguno de ellos está de hecho. Estaría más seguro de que
Pedro está en casa si no hubiera visto salir a nadie. Y aún estaría más seguro si
hubiera visto entrar a alguien, aunque no tan seguro como si hubiera visto entrar a los
dos gemelos. La siguiente figura representa la certeza asociada al hecho de estar
seguro de que hay algo, pero no de todo en un conjunto con cuatro tipos.
La figura cuatro muestra la mitad de los nodos de un sistema formado por dos
criterios a y b tomados dicotómicamente respecto a ser y estar. Se muestra la parte
que es a, es decir, a.
El súper nodo OR «a» de la izquierda expresa que existe para el sistema algo se
ajusta al criterio a. En un sistema dicotómico a= se ajusta y ¬a= no se ajusta.
Eso que se ajusta, a, puede estar presente o ausente. El nodo OR que contiene A
significa que algo que se ajusta está presente. El nodo OR que contiene significa que
algo que se ajusta está ausente.
Y aunque no aparezca en la figura, lo mismo ocurrirá para ¬a, siendo posible que
lo que no se ajusta al criterio esté o bien presente, ¬A, o bien ausente, ¬A.
Volviendo a la figura cuatro, en ella hay cuatro nodos objeto que resultan de
los nodos
a¬b;
combinar
= A1 está
AND:
a con
ausente
[A]=
b y ¬b,
está
ab; = A2 está
estando
presente
o no
lapresentes:
usente
totalidad
a¬b.
de
A1Ftipos
inalmente,
= estáa.presente
[A]=los
está = A2convergen
objetos
ab;
ausente
está
la totalidad
presente
en
de tipos a.
La figura cuatro no repara en los aspectos cuantitativos numéricos de la
inferencia. Por eso los súper nodos AND sumatorios quedan inciertos: Sabemos
cuántos tipos, pero no cuántos individuos.
Las relaciones contrarias permiten inferir que, si es cierto que está alguno, es falso
que falten todos con el mismo grado de seguridad. Es decir, que la certeza subjetiva de
que es verdad que está presente debe equivaler a la de que es falso que esté ausente.
También podemos observar en la figura anterior que, si es cierto que hay algo
presente, será falso que falte todo; del mismo modo que si es cierto que está todo
ausente, será falso que haya algo presente.
Si aplicamos las relaciones contrarias de presencia-ausencia tanto a lo que se
ajusta al criterio como a lo que no se ajusta obtenemos el sistema alfa completo. En
este sistema podemos organizar el conjunto de todo lo que está presente, sea del tipo
que sea, del mismo modo que podemos organizar el conjunto de todo lo que está
ausente, sea del tipo que sea.
A continuación, la figura cinco describe un sistema α que combina criterios a y b
en escalas dicotómicas de ser (a = ser; ¬a= no ser) y de existir (estar = 是; no estar = 不).
El sistema podría complicarse con infinitos grados de ser y de presencia, pero por
economía se reducen a dos que generan cuatro modos básicos de existir: es a y está; no
es a y está; es a y no está; no es a y no está. En ella, la totalidad de lo que puede haber
desde la perspectiva de un criterio equivale a la totalidad desde cualquier otro
criterio. [a]=[b].
Dentro del sistema alfa, y sin pretender entrar en problemas ontológicos, diremos
que un determinado tipo de objeto existe si y solo si es posible registrar su presencia o
su ausencia. Luego cuando sea verdad que está ausente o presente un objeto del tipo
A, será verdadero también el nodo OR ∃a que indica que existe para el sistema algo
del tipo A.
La figura seis muestra los estados de certeza que provoca en las redes alfa una
proposición compleja y a continuación, la tabla uno nos presenta las leyes aritméticas
elementales del sistema.
4. REFERENCIAS BIBLIOGRÁFICAS
López Aznar, Marcos B. (2016), «Innovación en didáctica de la lógica: el Diagrama
de Marlo», en T. Mijangos (Coord.), Rutas didácticas y de investigación en lógica,
argumentación y pensamiento crítico, 1.ª edición. México, Academia Mexicana de la
Lógica. Libro electrónico, 105-154.
UNA SEMÁNTICA TETRAVALUADA
PARA EL RAZONAMIENTO COMPUTACIONAL
RESUMEN: La conocida lógica tetravaluada de Belnap y Dunn B4, definida sobre un lenguaje
cuyas conectivas son la conjunción, la disyunción y la negación, está caracterizada por la
semántica bivalente tipo Belnap-Dunn que se define solamente para las mencionadas
conectivas. B4 ha sido generalizada por Ginsberg y dicha generalización ha sido aplicada a la
inteligencia artificial (por ejemplo, a la definición de semántica para programas lógicos) por
Fitting. De acuerdo con Belnap, los cuatro valores de verdad característicos de la semántica
para esta lógica pueden ilustrar de forma intuitiva cómo debería «pensar» un ordenador. Por
otro lado, Brady construye en 1982 el sistema BN4, que es una expansión implicativa de B4, es
decir, un fortalecimiento de este último que se consigue al introducir el condicional como
nueva conectiva. Meyer afirmó que BN4 es la lógica correcta para la situación tetravaluada,
donde los valores de verdad extra son interpretados como «ambos« y «ninguno«. Pues bien, el
propósito de esta comunicación es explicar la utilidad general (o, como mínimo, parcial) de
este tipo de semántica y su funcionamiento básico como guía de razonamiento para un
procesador artificial de información, esto es, para un ordenador.
Palabras clave: semántica bivalente tipo Belnap-Dunn; lógica tetravaluada; lógica tetravaluada
de Belnap y Dunn; lógica y computación; lógica birreticular; lógica tetravaluada de Brady.
1. INTRODUCCIÓN
L a conocida lógica tetravaluada de Belnap y Dunn B4, definida sobre un lenguaje
cuyas conectivas son la conjunción, la disyunción y la negación, está
caracterizada por la semántica bivalente tipo Belnap-Dunn que se define
solamente para las mencionadas conectivas (Belnap 1977a; 1977b; Dunn 1975). B4 ha
sido generalizado por Ginsberg (1987; 1988; Arieli y Avron 1998) y dicha
generalización ha sido aplicada a la inteligencia artificial (por ejemplo, a la definición
de semántica para programas lógicos) por Fitting (1991; 1994). De acuerdo con Belnap
(1977a; 1977b), los cuatro valores de verdad característicos de esta lógica pueden
ilustrar de forma intuitiva cómo debería «pensar» un ordenador. Por otro lado, Brady
(1982, 21) construye en 1982 el sistema BN4, que es una expansión implicativa de B4,
es decir, un fortalecimiento de este último que se consigue al introducir el condicional
como nueva conectiva. Meyer afirmó (1984, 253) que BN4 es la lógica correcta para la
situación tetravaluada, donde los valores de verdad extra son interpretados como
ambos y ninguno. Pues bien, el propósito de esta comunicación es explicar la utilidad
general (o, como mínimo, parcial) de este tipo de semántica y su funcionamiento
básico como guía de razonamiento para un procesador artificial de información, esto
es, para un ordenador. Se pretende, a su vez, dejar abierta a debate la cuestión de si es
BN4 el sistema que posee el condicional que realmente encaja en la situación
tetravaluada o si sería posible desarrollar alternativas al mismo.
laltérmino
teoría
argumento,
de argumentación puede referirse tanto a la acción de argumentar como
REFERENCIAS BIBLIOGRÁFICAS
Bach, Kent & Harnish, Robert M. (1979), Linguistic Communication and Speech-acts, Cambridge, Mass.:
MIT Press.
Bermejo Luque, Lilian (2015), «Giving Reasons Does Not Always Amount to Arguing», Topoi
doi:10.1007/s11245-015-9336-1
Coliva, Analisa (2016), The Varieties ofSelf– Knowledge, London, Palgrave-McMillan.
Marraud, Hubert (2016), «The Role of Ostension in Visual Argumentation», Cogency 8 (1), 21-41.
Pinto R (1995), «The Relation of Argument to Inference», en F.H. van Eemeren, R. Grootendorst, J.A.
Blair and C.A. Willard (eds.), Perspectives and Approaches, Proceedings of the Third ISSA Conference
on Argumentation, Vol. I. SicSat, Amsterdam, 271-286
Vega Reñón, Luis (2011), «Argumento/Argumentación», en Luis Vega y Paula Olmos (eds.)
Compendio de Lógica, argumentación y retórica, Madrid, Trotta, 66-74.
Vernant, Denis (2008), «The classification of speech acts revisited: a dialogical and actional
perspective». http://webcom.upmf-grenoble.fr/DenisVernant/speechacts.pdf
Wenzel, Joseph (1999), «Three Perspectives on Argument. Rhetoric, Dialectic, Logic», en Trapp, R. y
Schuetz, J.H. (eds.), Perspectives on Argumentation: Essays in Honor of Wayne Brockriede, New York,
Idebate Press, 2006, 9-26
CRISIS, REFINAMIENTO O CAMBIO
DEL PARADIGMA GENÉTICO
EN LA ERA POST-GENÓMICA
Pedro MARTÍNEZ-GÓMEZ (1, 2), Ana CUEVAS (2), María CEREZO (3)
1. INTRODUCCIÓN
E n estos momentos estamos asistiendo a un periodo de aparición de nuevas
transmisión de caracteres
metodologías, en
nuevas perspectivas y nuevos casos en el estudio de la
organismos vivos, en lo que sería la Genética como
teoría que da cuenta de la herencia de caracteres entre padres e hijos. Desde ámbitos
biológicos y filosóficos se habla de una revolución Post-genómica basada en estas
nuevas aproximaciones que haría cambiar nuestra visión de la herencia de los
caracteres.
La pregunta a la que trata de responder este trabajo es evaluar cómo están
afectando a los principios teóricos de la propia Genética las nuevas evidencias
experimentales derivadas a su vez de los avances epistemológicos y la nueva ontología
desarrollada en la era Post, y analizar una posible revolución científica. Para
responder a esta pregunta desde un punto de vista del meta-análisis filosófico vamos a
utilizar la metodología de análisis del progreso científico desarrollada por Thomas S.
Kuhn en su obra de 1962 The Structure of Scientific Revolutions (La estructura de las
revoluciones científicas) aplicada a la Genética como teoría sobre la herencia de
caracteres.
En este trabajo, asumimos como aceptada la distinción entre Teoría Genética
mendeliana o clásica y la Teoría Genética molecular. La Genética mendeliana o clásica
comienza con Mendel y tiene por objeto explicar la herencia de caracteres fenotípicos,
y se extiende hasta principios del s. XX, con los trabajos de William Bateson y Wilhelm
Johannsen, comprometiéndose con una noción abstracta y discreta de gen que daría
cuenta de la presencia y herencia de tales caracteres fenotípicos. A partir del
descubrimiento del ADN por Watson y Crick, la Genética molecular se compromete
con una concepción material de gen, identificándolo en particular con un fragmento
del ADN, responsable directamente de la síntesis de proteínas, e indirectamente de los
caracteres fenotípicos. En este trabajo, defendemos que ambas Teorías pueden
englobarse dentro de un paradigma amplio, el Paradigma Genético, que opondremos al
Paradigma Post-genómico, en el que el gen es un concepto heurístico y relativo al
contexto, y su rol en la investigación científica es ocupado por un concepto distinto,
más amplio, operacional, y al que podríamos referirnos como Perfil celular.
7. REFERENCIAS BIBLIOGRÁFICAS
Brigandt, Ingo (2010), «The epistemic goal of a concept: accounting for the rationality of semantic
change and variation», Synthesis (177), 19-40.
Caicedo, Juan C., Cooper, Sam, Heigwer, Florian, Warchal, Scott (2017), «Data-analysis strategies for
image-based cell profiling», Nature Methods (14), 849-863.
Charney, Evan (2012), «Behaviour genetics and postgenomics», Behavioral and Brain Sciences (35),
331-410.
Crick, Francis H.C. (1970), «Central dogma ofmolecular biology», Nature (227), 561-563.
Díez, José, Lorenzano, Pablo (2013), «Who Got What Wrong? Fodor and Piattelli on Darwin: Guiding
Principles and Explanatory Models in Natural Selection», Erkenntnis (78), 1143-1175.
Díez, José, Lorenzano, Pablo (2015) «Are natural selection explanatory models a priori?», Biology and
Philosophy (30), 787-809.
Falk, Raphael (2008), «Molecular Genetics: Increasing the Resolving Power of Genetic Analysis»,
History of Philosophy of the Life Science (30), 43-52.
Griffiths, Paul, Stotz, Karola (2013), Genetics and Philosophy. An Introduction, 1.ª edición, Cambridge,
Cambridge University Press, 1 vol.
Harrow, Jenifer, Frankish, Adam, González, José M., Taparini, Electra (2012), «GENCODE: The human
genome annotation for the ENCODE project», Genome Research (22), 1760-1774.
Hull, David (1972), «Reduction in genetics-biology or phylosophy?», Phylosophy of Science (39), 491
499.
Kitcher, Philip S. (2003), In Mendel’s Mirror. Philosophical reflections on biology, 1.ª edición, Oxford,
Oxford University Press, 1 vol.
Kuhn, Thomas S. (1962), The Structure of Scientific Revolutions, 1.ª edición, Chicago, The University of
Chicago Press.
Kuhn, Thomas S. (1970), The Structure of Scientific Revolutions, Serie «Foundation of the Unity of
Science», n.º 2, 2.ª edición, Chicago, University of Chicago Press, vol. II.
Lorenzano, Pablo (1998), «Hacia una reconstrucción estructural de la genética clásica y de sus
relaciones con el mendelismo», Epistema, 89-117.
Lorenzano, Pablo (2000), «The logical structure of classical genetics», Journal of General Philosophy
(31), 243-266.
Lorenzano, Pablo (2005), «Ejemplares, modelos y principios en la genética clásica», Scientiae Studia,
185-203.
Lorenzano, Pablo (2008), «Inconmensurabilidad teórica y comparabilidad empírica: El caso de la
genética clásica», Análisis Filosófico (28), 239-279.
Lorenzano, Pablo (2012), «Modelos, ejemplares, representaciones y leyes en la genética clásica»,
Stoa, 137-157.
Mendel, Gregor (1866), «Versuche über Pflanzen-Hybriden», Verhandlungen des Naturforschenden
Vereines, Abhandlungen, Brünn (4), 3-37.
Moulines, Ulises (1984), «Existential quantifiers and guiding principles in physical theories», en
Jorge J. Gracia, Eduardo Rabossi, Enrique Villanueva, Marcelo Dascal (eds) Philosophical Analysis
in Latin America, Synthese Library book series, Dordrecht, D. Reidel Publishing Company, 173
198.
Nickles, Thomas (2016) «Scientific Revolutions», The Stanford Encyclopedia of Philosophy (Winter
2016 Edition), Edward N. Zalta (ed.), [accesed 27-09-2017].
Portin, Petter (2009), «The elusive concept of the gene», Hereditas (146), 112-117.
Portin, Petter (2015), «The Development of Genetics in the Light of Thomas Kuhn’s Theory of
Scientific Revolutions», Recent Advances in DNA & Gene Sequences (9),1-12.
Rice, Willian R. (2014), «The synthesis paradigm in Genetics», Genetics (9), 372-404.
Sarkar, Sahotra (1998) Genetics and Reductionism, 1.ª edición, Cambridge, Cambridge
Schaffer, Kenneth H. (1969), «The Watson –Crick model and reductionism», British Journal for the
Phylosophy of Science (20), 325-348.
Sgaramella, Vittorio, Astolfi, Paola A. (2010), «Somatic genome variations interact with
environment, genome and epigenome in the determination of the phenotype: A paradigm shift
in genomics», DNA repair (9), 470-473.
Strohman, Richard C. (1997), «The coming kuhnian revolution in biology», Nature Biotechnology (15),
194-200.
Vargas, Borja, Varela, Manuel (2013), «Facing a shift in paradigm at the bedside?», International
Journal ofClinical Medecine (4), 35-40.
Watson, James D., Crick Francis H.C. (1953), «Molecular structure of nucleic acids: A structure for
deoxyribose nucleic acid», Nature (171), 737-738.
Weber, Marcel (2005), Philosophy of experimental biology, 1.ª edición, Cambridge, Cambridge
University Press, 1 vol.
LA AGENCIA DE LOS ARTEFACTOS:
ENTRE EL INSTRUMENTALISMO
Y LA SIMETRÍA GENERALIZADA
1. INTRODUCCIÓN
U no de los aspectos fundamentales para examinar el papel de los artefactos en
median,
la constitución
traducendeolotransmiten
humano eslade
agencia
qué manera
humana.dichos
Por supuesto,
objetos transforman,
el concepto
de agencia depende de su tradición teórica. En términos muy generales, un agente es
un ser con la capacidad de actuar, y «agencia» denota el ejercicio o manifestación de
esa capacidad, es decir, es la capacidad que posee un agente para actuar en el mundo.
(Schlosser 2015) Como observamos, es una definición bastante amplia que ha dado
lugar a posiciones bastante disímiles y hasta opuestas en cuánto a qué determina la
agencia.
El propósito de este trabajo es examinar qué papel juegan los artefactos en las
capacidades agentes de las personas; ¿hasta qué punto se puede delegar agencia a las
redes de artefactos? ¿y si es válido aceptar que los artefactos tienen agencia? Veamos
qué enfoques predominan en los estudios filosóficos y sociológicos de la ciencia y la
tecnología y cuáles es el más adecuado tomar para los propósitos de este trabajo.
Para esta explicación, los artefactos no son agentes en el sentido estricto, pero sí
son traductores, mediadores o posibilitadores de la agencia humana. En la figura 6.5
se muestra una descripción de la asimetría que se presenta en las redes de artefactos
de un nicho de cultura material. Los humanos son seres protésicos que se han
apropiado de artefactos y símbolos para establecer sus identidades en y con los grupos
sociales. Además, Las interacciones con los artefactos transforman dichas redes y se
revierte parte de estas acciones (agencia) en forma de «experiencias». La agencia
humana es la que permite la duración y reproducción de los artefactos y sus
funciones, pero la vez, la agencia es transformada con las respuestas en forma de
experiencias que reconfiguran a los agentes y sus prótesis. Estas redes conforman
relaciones complejas que intercambian materia, energía e información. Los nichos de
cultura material, más que redes, son «ecosistemas».
4. CONCLUSIONES
Definimos agencia como la capacidad de actuar intencionalmente respondiendo a
razones, en la cual hay una relación causal entre la intención y la conducta para un
resultado, teniendo en cuenta la existencia de una representación previa de los
objetivos, de los valores y las normas que guían la acción además de la capacidad de
deliberación sobre el logro de los objetivos. Como consecuencia, los artefactos
técnicos no cumplen con las condiciones mínimas para denominarlos agentes (o
incluso delegatarios de agencia) pues ningún artefacto actual (ni con la más
sofisticada inteligencia artificial) cumple tales condiciones.
No obstante, esta afirmación no significa adoptar una posición instrumentalista
sobre los artefactos pues reduce el papel de los objetos técnicos a accesorios casi
transparentes y prescindibles de la agencia humana. Es ese sentido, los artefactos no
tienen agencia por sí mismos, pero sí median y transforman el ejercicio de agencia
humana de una manera constitutiva.
En consecuencia, se adopta la noción de agencia extendida (Broncano), que
sostiene que el entorno de artefactos (y sus símbolos, conocimientos y habilidades
asociadas) es un nicho que transforma, amplía o constriñe las capacidades agentes de
los sujetos, esto es, no sólo hay una agencia transformadora en la dirección sujeto
mundo, sino que dicho entorno revierte parte de esas acciones (experiencias) a los
sujetos, transformando así sus propias capacidades agentes.
5. REFERENCIAS BIBLIOGRÁFICAS
Anscombe, G. E. (1957), Intention, London, Harvard University Press.
Broncano, F. (2005), «La agencia técnica», Revista CTS, 95-105.
Broncano, F. (2006), Entre ingenieros y ciudadanos: filosofía de la técnica para días de democracia, Madrid,
Montesinos Ensayo.
Broncano, F. (2006), «Sujeto y subjetividad en la mente extensa», Revista de Filosofía, 31(2), 109-133.
Clark, A., & Chalmers, D.J. (1998), «The Extended Mind», Analysis(58), 10-23.
Davidson, D. (1980), «Actions, Reasons, and Causes», en D. Davidson, Essays on Actions and Events,
Oxford: Clarenton Press, 3-20.
Durkheim, E. (1986), Las reglas del método sociológico, (E. de Champourcín, Trad.) México, Fondo de
Cultura Económica.
Ema López, J. E. (2004), «Del sujeto a la agencia (a través de lo político)», Athenea Digital(6), 1-24.
Giddens, A. (2012), Las nuevas reglas del método sociológico. Crítica positiva de las sociologías comprensivas
(Segunda ed.), (S. Merener, Trad.) Buenos Aires, Amorrortu Editores.
Latour, B. (2005), Reassembling the Social. An Introduction to Actor-Network-Theory, Oxford, Oxford
University Press.
Marean, C. W. (2010), «When the Sea Saved Humanity», Scientific American, 303(2), 54-61.
Ricoeur, P. (1988), El discurso de la acción (Segunda ed.), (P. Calvo, Trad.) Madrid, Cátedra Teorema.
Schlosser, M. (2015), Agency, en The Stanford Encyclopedia of Philosophy
http://plato.stanford.edu/archives/fall2015/entries/agency
Searle, J. R. (1983), Intentionality, An Essay in the Philosophy of Mind, Cambridge, Cambridge University
Press.
Simondon, G. (2007), El modo de existencia de los objetos técnicos, Buenos Aires, Prometeo Libros.
LA AGENCIA ARGUMENTATIVA
Y SUSEFECTOS INSTITUCIONALES
RESUMEN: Uno de los desafíos relacionados con las prácticas discursivas de agentes
argumentativos es el de llegar a conocer si esas interacciones tienen un efecto institucional.
Suele decirse que las instituciones tienen discursos y vocabularios regimentados a través de los
cuales se comprenden, interpretan y constituyen socialmente las demandas de las personas.
Pero ¿qué sucede cuando de las interacciones de los agentes emergen nuevas prácticas
discursivas institucionales? ¿Por qué y cómo consiguen dichas prácticas dar lugar a nuevos
patrones de la vida social para agentes discursivos de la sociedad civil? En estas páginas, se
señala que el enfoque socio-institucional de Luis Vega puede entenderse como una metodología
de investigación especialmente adecuada para investigar las prácticas argumentativas que
intervienen en procesos de legitimación y reconocimiento (1); se aluden a los nexos existentes
entre la racionalidad colectiva, que pone en juego la argumentación pública, y el capital socio
cultural (2); se presenta el dinamismo asociado a los procesos de agencia argumentativa como
una variable fundamental para entender tanto la vivacidad del debate público como sus efectos
institucionales; y, por último (4) se arguye que la racionalidad que ponen en juego los agentes
argumentativos en la esfera pública es un tipo de racionalidad colectiva.
Palabras clave: Comportamiento argumentativo; Institucionalismo; Capital social.
INTRODUCCIÓN
as estrategias discursivas se adaptan a un conjunto de condiciones
L
1.
en su obra Strategic
Eemeren (2010)preexistentes.
institucionales Esta fue una de las tesis defendidas por Frans van
Maneuvering in Argumentative Discourse. En
esta obra, el fundador de la denominada Escuela de argumentación de la Universidad
de Amsterdam («Escuela de Amsterdam») defendió que el término «argumentación»
no solo hace referencia a un concepto teórico al que se le da forma en modelos
analíticos (e.g. el modelo ideal de una discusión crítica). El término «argumentación»
se refiere también a un fenómeno empírico que puede ser observado en una multitud
de prácticas comunicativas reconocidas por los argumentadores. Las prácticas
comunicativas se pueden reconocer porque están conectadas con tipos específicos de
contextos institucionales en los que estas desempeñan ciertos propósitos relevantes
para la realización del «objetivo» o «meta» institucional en cuestión. Por ese motivo,
estas prácticas se convencionalizan de acuerdo a distintos tipos de requisitos. El
investigador holandés extrajo de ello una tesis fuerte (en adelante, T1) con la que nos
advierte de la existencia de precondiciones institucionales:
T1–Las posibilidades de maniobrar estratégicamente en el discurso argumentativo
están determinadas por las precondiciones institucionales que prevalecen en la
práctica comunicativa en cuestión.
En esa misma obra, Van Eemeren menciona en una nota a pie de página –
aparentemente marginal, pero de una importancia radical– una importante hipótesis
de investigación (en adelante, H1) que aquí se presenta sin embargo a modo de
corolario derivado de la asunción de T1.
H1–Se podrían llegar a explicar los orígenes de las instituciones a partir de los
efectos derivados de su existencia.
Esta hipótesis de investigación se conecta con el institucionalismo de elección
racional. De hecho, el propio autor añade que, al igual que los defensores del
institucionalismo de elección racional, él también prefiere hacer hincapié en la
relativa autonomía de las instituciones políticas y en la importancia de su acción
simbólica. En cierto modo, puede decirse que Van Eemeren asume H1 como un
corolario de T1 el cual podría expresarse en los siguientes términos:
Corolario–La práctica comunicativa de argumentar, y de argumentar
estratégicamente, no solo está determinada por precondiciones institucionales, sino
que dicha práctica es un efecto derivado de la existencia de dichas constricciones
institucionales.
Entre los especialistas en el campo de la «Teoría argumental» –como gustaba en
referirse a este ámbito el filósofo español Quintín Racionero (2000a, 2000b, 2009,
2010a, 2010b)– existen tres perspectivas para analizar cualquier episodio de
comunicación humana en el que se pueda comprobar el uso de argumentos. Esas
perspectivas son la lógica (que analiza los productos de la argumentación), la dialéctica
(que analiza los procedimientos argumentativos) y la retórica (que trata de los procesos
argumentativos en un sentido amplio). Recientemente, algunos especialistas del
campo de la teoría argumental han propuesto ampliar dichas perspectivas añadiendo
una nueva: la perspectiva socio-institucional. En estas páginas, asumo que la
perspectiva socio-institucional ya fue tenida en cuenta por el propio Van Eemeren
(2010) cuando este sostuvo que, a través de los efectos derivados de la existencia de
precondiciones institucionales –y la propia práctica argumentativa es uno de esos
efectos–, se pueden investigar las instituciones políticas, así como los efectos de su
acción simbólica. Sin embargo, el investigador holandés no se propuso ampliar la
cuarta perspectiva, a saber, la perspectiva socio-institucional. Este ha sido
precisamente el objetivo de investigación de Luis Vega quien relaciona esta
importante cuarta perspectiva socio-institucional con la denominada «lógica civil» o
«lógica del discurso civil».
2. EL ENFOQUE SOCIO-INSTITUCIONAL
La introducción de la perspectiva socio-institucional en el campo de la teoría
argumental es una de las contribuciones más importantes de Vega (2004, 2008, 2012,
2013a, 2013b, 2016). Algunos autores ya han resaltado el carácter programático de su
aportación y han subrayado la relevancia de la perspectiva socio-institucional
(Marraud 2015). La denominada por Vega «lógica civil» analiza fenómenos del
discurso en la esfera pública que ni se capturan ni se comprenden plenamente con
ayuda de herramientas de análisis características de la lógica, la dialéctica o la
retórica. El cometido de evaluar la calidad del ejercicio público de la razón es de difícil
ejecución si esta se asume como efecto de un tipo de procedimiento dialéctico, un
proceso retórico específico y/o un producto efectuado de la lógica. Por ese motivo,
parece razonable afirmar que si la perspectiva socio-institucional debe añadirse y
diferenciarse de las tres clásicas perspectivas (i.e. dialéctica, retórica y lógica) es
porque su objeto de estudio radica en fenómenos cuyo dinamismo y complejidad solo
se despliegan en la esfera socio-política. Una esfera sobre la que ya Van Eemeren
advirtió su importante acción simbólica.
Sostengo que la perspectiva socio-institucional podría desarrollarse hasta dar
lugar a un programa (o varios, en plural) ciertamente innovador. En términos
generales, puede afirmarse que hay diferentes rasgos que caracterizan al enfoque
socio-institucional:
(1) analiza e interpreta las creencias, los valores, las actitudes, etc. que dotan de
sentido a los intercambios argumentativos;
(2) profundiza en cuestiones como el importante papel de los compromisos
compartidos en toda comunicación intersubjetiva;
(3) indaga en los procesos de inducción de creencias;
(4) informa acerca de los criterios que determinan la calidad del discurso público.
No obstante, y a pesar de la importancia de los rasgos con los que se puede
describir el enfoque socio-institucional, en estas páginas voy a sostener dos
argumentos generales. En primer lugar, identifico un rasgo aún más elemental con el
que debería vincularse este enfoque. El fenómeno de la argumentación es un
ingrediente fundamental de diversas prácticas que tiene lugar en el espacio público y
que está ligado a procesos (i.e. sociales, políticos, epistémicos, retóricos, etc.) de
legitimación y reconocimiento. La investigación acerca de estos dos procesos (e.g. los
procesos mediante los cuales se produce legitimación y reconocimiento) es
fundamental para ampliar el espacio de oportunidad teórico-práctico de la lógica del
discurso civil entendida como un programa de investigación. Marraud (2015) sostiene
que la perspectiva socio-institucional constituye un programa de investigación que
ofrece soluciones al menos a dos problemas: el uso de propuestas (y también de
supuestos) tiene un encaje óptimo en el enfoque socio-institucional; y el paradigma
socio-institucional proporciona un marco teórico para teorías de las virtudes
aplicadas al estudio de la argumentación. Sin embargo, los especialistas no han
dedicado aún suficiente atención al análisis de los procesos de producción de
legitimidad y reconocimiento desde la perspectiva del institucionalismo. El
institucionalismo socio-histórico constituye un programa especialmente adecuado
para (i) investigar las prácticas argumentativas que intervienen en procesos de
legitimación y reconocimiento; pero, además de eso, el enfoque socio-institucional
debería entenderse principalmente como un programa destinado a (ii) interpretar
procesos de la esfera pública que actúan como un mecanismo de cálculo y
conformación de capital social. De la fuerza suasoria de dichos argumentos depende la
relevancia de esta posible aportación programática al campo de la teoría argumental.
3. LALISTA DE LA COMPRA
De acuerdo con la perspectiva socio-institucional defendida por Vega el discurso
público se concentra en el debate construido a través de la discusión de propuestas y
la ponderación de alternativas entre agentes argumentativos. La existencia de un
marco institucional del debate garantiza el buen desarrollo de dichas ponderaciones
y, en general, aporta reglas discursivas y procedimentales al debate público. La
deliberación sería, de acuerdo con esta concepción, un caso ilustrativo de interacción
argumentativa en el amplio ámbito de lo social. Por consiguiente, la deliberación que
tiene lugar en dichos entornos de debate es de tipo colectivo y, por así decir, tiene un
sujeto plural (Navarro 2018). La interacción argumentativa entre agentes es el
fenómeno empírico que más atención merece entre los partidarios del enfoque socio
institucional de la práctica argumentativa. La razón de que así sea se debe a que dicha
interacción tiene el poder de conformar y nutrir el proceso deliberativo en cuanto tal.
Entiendo por deliberación en este contexto una interacción argumentativa entre agentes que
tratan, gestionan y ponderan información, opciones y preferencias, en orden a tomar de
modo responsable y reflexivo una decisión o resolución práctica sobre un asunto de interés
común y debatible, al menos en principio, mediante los recursos del discurso público, p.ej.,
mediante razones comunicables y compatibles más allá de los dominios personales o
puramente profesionales de argumentación. (Vega 2013, 121)
La balanza de la razón de Leibniz es la imagen que mejor representa la
confrontación interpersonal, porque en ella se consigue dar expresión a una versión
normativa de ese modelo de interacción. Muchos especialistas han utilizado la imagen
de la balanza de Leibniz como metáfora de las reglas discursivas y los principios
procedimentales que permiten a los agentes efectuar ponderaciones razonables,
transparentes y públicas. La concepción socio-institucional de la argumentación que
sostienen tanto Vega como Van Eemeren se enfoca casi exclusivamente en el
fenómeno de la interacción. Como resultado de ello, la imagen final que se utiliza paga
el precio de un cierto aislamiento ya que existe un importante fenómeno difícilmente
subsumible en esa metáfora. Me refiero al fenómeno de la agencia el cual dota de
sentido a todo intercambio argumentativo en la medida en que los agentes exhiben un
determinado comportamiento argumentativo.
Para entender de un modo más certero en qué consisten las prácticas
argumentativas es necesario sustituir la imagen de la balanza de la razón de Leibniz
por la imagen de la lista de la compra propuesta por Anscombre (1957) en su conocida
obra Intention. Una lista de la compra puede verse en la dirección mundo-mente
cuando la usamos para ir rellenando el carro de la compra. Pero la misma lista de la
compra puede verse en la dirección mente-mundo cuando comprobamos que lo que
habíamos listado (lo que teníamos en mente comprar) ya está dentro del carrito. En el
primer caso, el mundo es transformado para adecuarse a la intención. En el segundo,
la intención debe adecuarse al mundo para ser verdadera. La agencia es por
consiguiente una clase de capacidad porque mediante ella los seres humanos –y
especialmente los agentes argumentativos, como haré ver a continuación– controlan
intencionalmente una parcela de la realidad. Esta compleja capacidad entraña una
coordinación de facultades y habilidades puesto que lo que se exige es una relación
entre intención y resultados.
El conocimiento de la agencia (a diferencia del conocimiento teórico) es un
conocimiento de ajuste mundo-mente. Anscombre utilizó dicha imagen (i.e. la de una
lista de la compra y un carrito) con el propósito de ilustrar el «principio de dirección
de adecuación» (que aquí denominaremos el quinto principio) según el cual la relación
de agencia es una relación causal entre una intuición y una conducta que resulta de
un fin. Es esta imagen y no la de la balanza –la cual remite a la operación cognitiva de
ponderar– la que nos alerta sobre la existencia de un contexto de la acción. El
contexto de la acción constituye un auténtico factor institucional porque es él (y no el
mecanismo de la balanza) el que, en cada caso, nos informa acerca de las reglas, las
prescripciones compartidas (formales e informales), las convenciones, etc., que son
realmente vinculantes para determinados agentes argumentativos (aquello que
tenemos que seleccionar para diseñar nuestro comportamiento argumentativo si de
verdad queremos alcanzar nuestros fines). Para decirlo de una manera sumaria: el
agente argumentativo encuentra en el contexto social la información necesaria acerca
del tipo de relación causal entre una intuición (e.g. creencia, propuesta, preferencia) y
la conducta argumentativa que mejor satisface sus objetivos como proponente u
oponente.
5. CODA
Los esquemas argumentativos conductivos que se seleccionan para describir las
fases pragmáticas y conversacionales del entendimiento adolecen de un
intelectualismo extremo. Al escribir esto me estoy refiriendo a las fases de la
deliberación cuya existencia admiten la mayoría de los especialistas a partir del
trabajo de Hitchcock etal (2001): planteamiento del problema y apertura; distribución
de la información; avance de propuestas y contrapropuestas; ajustes, revisiones;
resolución, etc. Entre otros aspectos, este modelo de esquema argumentativo
conductivo nos permite visualizar e identificar fases y elementos retóricos
relacionados con la apertura y producción de procesos de legitimidad y
reconocimiento (Navarro 2011). La legitimidad y el reconocimiento no se deberían
asumir como si fueran dos variables dependientes de las fases de la deliberación
descritas anteriormente. Los agentes argumentativos protagonizan debates públicos
en busca de legitimidad y reconocimiento, pero no hay normas ni esquemas
argumentativos que garanticen el éxito de manera automática en la obtención de
legitimidad y/o reconocimiento. Precisamente por ese motivo la práctica argumental
no se constituye con independencia ni de la agencia argumentativa ni de los efectos
institucionales que esta llegue a producir en cada caso. Los agentes utilizan esquemas
argumentativos conductivos para obtener rendimientos intelectuales y capitales
simbólicos complejos cuya producción y circulación no garantiza la sola construcción
lógica de argumentos. A través de la deliberación pública, la racionalidad colectiva
pone en juego la agencia argumentativa y la creación de legitimidad y
reconocimiento; dos cualidades que tienen a su vez una estrecha relación con la
producción de capital socio-cultural en un determinado contexto social.
6. REFERENCIAS BIBLIOGRÁFICAS
Anscombre, Elizabeth (19587), Intention, Oxford, Basil Blackwell.
Eemeren, Frans H. van (2011), «In Context. Giving Contextualization its Rightful Place in the Study
of Argumentation», Argumentation (25), 141-161.
Eemeren, Frans H. van (2010), Strategic Maneuvering in Argumentative Discourse: Extending the Pragma
dialectical Theory of Argumentation, Amsterdam/Philadelphia, John Benjamins Publishing
Company.
Hitchcock, D, P. McBurney y S. Parsons (2001), «A framework for deliberation dialogues»,
Proceedings of the 4th Biennial Conference OSSA, Ontario.
Marraud, Hubert (2015), «La lógica del discurso civil», en Hubert Marraud y Paula Olmos (eds.), De
la demostración a la argumentación. Ensayos en honor de Luis Vega, Servicio de Publicaciones de la
Universidad Autónoma de Madrid, 163-177.
Murguía Lores, Adriana (2016), «Injusticias epistémicas y teoría social», Dilemata. International
Journal ofApplied Ethics (22) 1-19.
Navarro, María G. (2011), «Fases de la argumentación», en Luis Vega y Paula Olmos (eds.) Compendio
de Lógica, Argumentación y Retórica, Madrid, Editorial Trota, 243-244.
Navarro, María G. (2015a), «El lugar de la controversia en la argumentación» en Fernando Leal
Carretero (ed.) Argumentación y pragma-dialéctica: Estudios en honor a Frans Van Eemeren,
Guadalajara (MX), Editorial Universitaria.
Navarro, María G. (2015b), «El rol de las heurísticas sociales en la deliberación», Bajo Palabra. Revista
de Filosofía (10), 123-134.
Navarro, María G. (2015c), «Vague Heuristics», en Rudolf Seising y L. A. Méndez (eds.) Accuary and
Fuzzines. Sudies in Fuzziness and Soft Computing (323), 281-293.
Navarro, María G. (2018), «A Defense of Cooperative Cognition», en Concha Roldán, Oscar Daniel
Brauer y Johannes Rohbeck (eds.) Philosophy of Globalization, Berlin, De Gruyter.
Putnam, Robert D. (1993), Making Democracy Work. Civic Traditions in Modern Italy, Princeton,
Princeton University Press.
Racionero, Quintín (2000a), «La resistible ascensión de Alan Sokal. (Reflexiones en torno a la
responsabilidad comunicativa, el relativismo epistemológico y la postmodernidad.)», ÉNDOXA:
Series Filosóficas (12), 423-483.
Racionero, Quintín (2000b), «El escupitajo de luna o esmeralda de los filósofos. Algunas notas más
sobre ciencia moderna postmoderna», ÉNDOXA: Series Filosóficas (13), 55-84.
Racionero, Quintín (2009), «La controversia de nación e Imperio. Reacción de los pensadores
españoles a la Revolución de Holanda (I)», INGENIUM. Revista de historia del pensamiento moderno
(2), 24-52.
Racionero, Quintín (2010a), «La controversia de nación e Imperio. Reacción de los pensadores
españoles a la Revolución de Holanda (II)», INGENIUM. Revista de historia del pensamiento moderno,
94-118.
Racionero, Quintín (2010b), «Encuesta: El estado actual de los estudios sobre Argumentación»;
Revista Iberoamericana de Argumentación (1), 30-32.
Sass, Jensen y John S. Dryzek (2014), «Deliberative Cultures», Political Science 42(1): 3-25.
Vega, Luis (2004), «De la lógica académica a la lógica civil: una proposición», Isegoría. Revista de
filosofía moral y política (31), 131-149.
Vega, Luis (2008), «Deliberación y discurso civil: nuevas perspectivas en el campo de la
argumentación», Revista Laguna (22), 35-51.
Vega, Luis (2012), «Vindicación y elogio de la retórica», Revista Iberoamericana de Argumentación (5),
1-18.
Vega, Luis (2013a), La fauna de las falacias, Madrid, Trotta, 119-128.
Vega, Luis (2013b), «La deliberación: un campo de prueba del discurso público», en Adrán Grimate
Welsh y Julieta Haidar (eds.) Argumentación. México, UAM-Iztapalapa, 123-152.
Vega, Luis (2016), «Variaciones sobre la deliberación», Dilemata. Revista Internacional de Éticas
Aplicadas (22), 203-220.
Wenzel, Joseph W. (1990), «Three Perspectives on Argument. Rhetoric, Dialectic and Logic», en
Robert Trapp y Janice Schuetz (eds.) Perspectives on Argumentation: Essays in Honor of Wayne
Brockriede, New York, Idebate Press, 9-26.
DEL ARGUMENTAR AL RAZONAR
Y VUELTA AEMPEZAR
2. VÍNCULOS INFERENCIALES
En todo caso, para llevar a cabo ambas reflexiones resulta pertinente preguntarse
previamente por la identidad o las diferencias entre las diversas clases de «vínculos
inferenciales» y las diversas clases de argumentos, basadas en distintos «tipos de
razones». ¿Serían identificables? En principio creemos que sí, sobre todo si es
plausible que aprendemos a razonar argumentando. Pero lo cierto es que las
tradiciones filosóficas al respecto son muy diversas. Mientras que para hablar de
clases de vínculos inferenciales se habría construido una suerte de «teoría de las
ducciones», en conocida expresión de L. Vega (deducción, inducción, abducción desde
Peirce, más analogía) a la que habría que sumar algunos intentos no muy
consensuados de ampliar el elenco (razonamiento conductivo, razonamiento
presuntivo, heurísticas); las clasificaciones de «tipos de argumentos» se basan más
bien en los antiguos tópicos, las clases de entimemas de la Retórica aristotélica, los
listados de falacias y apelaciones, etc. Con tales precedentes se habría ido alimentando
la actual teoría de los «esquemas argumentativos» (Walton, Reed y Macagno 2008)
clasificados de acuerdo con distintos tipos de «garantías», de acuerdo con el llamado
Modelo de Toulmin (Toulmin 1958).
El panorama es aún confuso y polémico y seguramente –sobre todo si partimos del
planteamiento de Mercier y Sperber y, por lo tanto, la primacía del argumentar sobre
el razonar– requiere de una elucidación aún más básica del concepto relacional de
«ser (o considerarse en ciertos contextos) una razón para». Por el momento, me
limitaré a apuntar, por un lado, el carácter, en todo caso, sustantivo y ampliativo (i.e.
no formal) de tal relación y, por otro, su constitución como estándar normativo
intersubjetivo e intercomunicativo (como habría dicho J. Goodwin: «La idea misma de
razón encierra el ser algo que podría ser aceptado por los demás»).
En todo caso, una manera de empezar a explorar las relaciones entre
razonamiento, inferencia y argumentación que nos interesan sería centrarnos en
alguna clase reconocible y reconocida (y, por lo tanto, particularmente estudiada) de
argumentos/razonamientos. A modo de muestra, revisaré de acuerdo con este marco,
las relaciones entre la argumentación metaexplicativa o abductiva estudiada como un
esquema argumentativo (con sus cuestiones críticas, que comportan modelos usuales
de contraargumentación) y las, así llamadas, constricciones sobre las inferencias
abductivas señaladas por E. Bustos (2011).
Las constricciones señaladas por Bustos, que originan, en unos casos, o que
permiten refinar, en otros, la inferencia abductiva en el nivel mental del individuo, se
pondrán en relación con los modos usuales de evaluar, criticar y contrargumentar
frente a una propuesta expresa de argumento abductivo, comunicada en un contexto
de diálogo, lo que supone considerar las primeras como una suerte de interiorización
de la práctica de los segundos, algo que, a su vez, nos permite entender mejor el
carácter dinámico y sujeto a reevaluación de tales «constricciones» y nos detrae de la
tentación de convertirlas en «premisas requeridas».
3. REFERENCIAS BIBLIOGRÁFICAS
Bustos, Eduardo (2011), «The Creative Function of Abduction: Constraints on Abductive Inference
in Artistic and Scientific Creativity», en S. Castro y A. Marcos (eds.), The Paths of Creation.
Creativity in Science and Art, Berna, Peter Lang, 47-61.
Johnson, Ralph (2000), Manifest Rationality: A Pragmatic Theory of Argument, Mahwah, NJ, Lawrence
Erlbaum.
Marraud, Hubert (2013), ¿Es lógic@? Análisis y evaluación de argumentos, Madrid, Cátedra.
Marraud, Hubert (2016), «The Role of Ostensión in Visual Argumentation», Cogency (8/1), 21-41.
Mercier, Hugo & Dan Sperber (2011), «Why do humans reason? Arguments for an argumentative
theory», Behavioral and Brain Sciences (34), 57-111.
Olmos, Paula (2016), «Reseña de C.W. Tindale: The Philosophy of Argument and Audience Reception»,
Revista Iberoamericana de Argumentación (13)
Disponible en http://revistas.uned.es/index.php/RIA/article/view/17843/15119
Pinto, Robert (2001), Argument, Inference and Dialectic: Collected Papers on Informal Logic, Dordrecht,
Kluwer.
Tindale, Christopher W. (1999), Acts of Arguing: A Rhetorical Model of Argument, Albany, NY, SUNY
Press.
Tindale, Christopher W. (2015), The Philosophy of Argument and Audience Reception, Cambridge,
Cambridge University Press.
Toulmin, Stephen E. (1958), The Uses ofArgument, Cambridge, Cambridge University Press.
Walton, Douglas, Christopher Reed & Fabrizio Macagno (2008), Argumentation Schemes, Cambridge,
Cambridge University Press.
SOBRE LA EVOLUCIÓN DEL CONCEPTO
DE LÓGICA EN EL SIGLO XX
3. CONCLUSIONES
Hemos visto que el concepto de lógica modelo-teórica tardó mucho a consolidarse,
a pesar de los métodos modelo-teóricos estar ya disponibles mucho antes. Eso se
explica porque durante siglos o más bien milenios, una tarea fundamental de la lógica
es ser una teoría de la deducción. Con el programa logicista y con la escuela de
Hilbert, también se intenta dar a la lógica la tarea de caracterizar estructuras de
interese.
Entonces, las lógicas modelo-teóricas son un fruto de ese nuevo aspecto dado a la
lógica en comienzos del siglo XX. Solo se pasa a aceptar las lógicas modelo-teóricas,
cuando la función de ser una teoría de la deducción deja de ser un aspecto
fundamental de la lógica. Ese cambio fue fomentado por la descubierta de los
cuantificadores generalizados por Mostowski y Lindström, su riqueza de expresión y
con todo el campo que se abrió con las caracterizaciones a la Lindström respecto a la
expresividad. Otro empuje fue un sólido criterio de logicidad para los nuevos
operadores lógicos ofrecido por Tarski en 1966.
4. REFERENCIAS BIBLIOGRÁFICAS
Corcoran, John (1969), «Three logical theories», Philosophy of Science, (36), 153-177.
Barwise, Jon (1972), «Absolute logics and L∞ω», Annals of Mathematical Logic, (4), 309-340.
Barwise, Jon (1974), «Axioms for abstract model theory», Annals of Mathematical Logic, (7), 221-265.
Feferman, Solomon (1974b), «Two notes on abstract model theory i», Fundamenta Mathematicae,
(82), 153-165.
Feferman, Solomon (2004), «Tarski’s conception of logic». Annals of Pure and Applied Logic, (126), 5
13.
Feferman, Solomon (2012), «On rereading van heijenoort’s selected essays». Logica Universalis, (6),
535-552.
Van Heijenoort, Jean (1967), «Logicas calculus and logicas language», Synthese, (17), 324-330.
Hilbert, David y Ackermann, Wilhelm (1950), «Principles of mathematical logic». American
Mathematical Society, Chelsea.
Hintikka, Jaakko (1988), «On the development of the model-theoretic viewpoint in logical theory».
Synthese, (77), 1-36.
Lindström, Per (1969), «On extensions ofelementary logic», Theoria, (35), 1-11.
Lindström, Per (1974), «On characterizing elementary logic». In S. Stenlund, ed., Logical Theory and
Semantic Analysis. p. 129-146. Springer Netherlands, Dordrecht.
Löwenheim, Leopold (1967), «On possibilities in the calculus of relatives». En J. Van Heijenoort
(Ed.), From frege to gödel: a source book in mathematical logic, 1879-1931. Harvard University
Press
Manzano Arjona, Maria , y Alonso, E. (2014) «Completeness: from Gödel to Henkin». History and
Philosophy of Logic, (35), 50-75.
McGee, Vann (1996), «Logical operations», Journal of Philosophical Logic, (25), 567-580.
Mostowski, Andrei (1957), «On a generalization of quantifiers», Funtamenta Matematicae, (44).
Skolem, Torhalf (1970) «Selected works in logic», Serie «Scandinavian University Books»,
Universitetsforlaget, Oslo.
Tharp, Leslie H. (1975), «Which logicis the right logic?» Synthese, (31), 1-21.
Tarski, Alfred (1983a), «Investigations into the sentential calculus. Logic, Semantics,
Metamathematics: Papers from 1923 to 1938». Hackett Publishing Company.
Tarski, Alfred (1983b), «Logic, semantics, metamathematics: Papers from 1923 to 1938». Hackett
Publishing Company.
Tarski, Alfred (1983c), «On the limitations of the means of expression of deductive theories». En J.
Corcoran (Ed.), Logic, semantics, metamathematics: Papers from 1923 to 1938. Hackett
Publishing Company.
Tarski, Alfred (1986), «Whatare logical notions?» History and Philosophy of Logic, (7), 143-154.
[1] La completitud para la lógica como un cálculo solo se establece tardíamente según (Manzano y
Alonso 2014).
[2] Para Hintikka (1988, 11) este fue el gran error del pensamiento de Hilbert.
[3] Dicen Hilbert y Ackerman (1950, 68): A formula of the predicate calculus is called logically true or, as
we also say, universally valid only if, independently of the choice of the domain of individuals, the formula
always becomes a true sentene for any substitution of definite sentences, of names of individuals belonging
to the domain of individuals, and of predicates defined over the domain of individuals, for the sentential
variables, the free individual variables and the predicate variables respectively.
[4] Un conjunto A es recursivamente enumerable si hay un método efectivo para listar todos los
miembros de A.
SIMULACIONES DE LA QUÍMICA COMPUTACIONAL EN LAS
PRÁCTICAS
DE LABORATORIO
INTRODUCCIÓN
a filosofía de la experimentación ha focalizado su atención en la complejización
L
1.
creciente de los experimentos que incorporan instrumentos de alta tecnología,
modelos, y mediciones cada vez más precisas. Las simulaciones computacionales
han ganado terreno en la vida de los laboratorios, generando importantes cambios en
esta actividad que afectan de manera fundamental nuestra imagen de cómo se
produce el conocimiento científico. No obstante, los trabajos que toman en
consideración el modo en que la intervención de las computadoras y las simulaciones
computacionales están modificando las prácticas experimentales, son aun pocos. Si
bien la filosofía ha considerado más sistemáticamente el tema de las simulaciones
computacionales, sin embargo, no se ha atendido tanto a la cuestión de cómo se
integran a un experimento. El trabajo pionero de Humphreys (1990) ha señalado que
las simulaciones han mejorado nuestras habilidades para modelar matemáticamente
el mundo. En los últimos años, el foco ha estado puesto en el proceso de construcción
de las simulaciones, especialmente en la implementación del modelo matemático
(Weisberg 2013; Winsberg 2010; Farge 2007; Lenhard 2007; Humphreys 2004; Guala
2002). En general, esos trabajos toman las simulaciones en forma descontextualizada,
es decir, independientemente de su aplicación concreta. En nuestro caso, analizamos
cómo se integran las simulaciones computacionales en un diseño experimental. En vez
de analizar la relación de la teoría con la simulación, nos ocupamos de la instancia
concreta en la que ésta se vincula con el sistema en estudio. Consideramos que allí se
hace patente el rol protagónico que desempeñan en la obtención de nuevo
conocimiento relevante.
Esta perspectiva pone de relieve que las simulaciones computacionales no
constituyen un producto cerrado como usualmente se las considera. Mostramos que,
una vez construido el paquete de simulación, está abierto a otro procedimiento que
las localiza en las situaciones específicas y es el que permite la obtención de
conocimiento. Nos referimos a la instancia en la que la simulación incorpora
información producida por las técnicas experimentales sobre el sistema en estudio.
Ilustraremos estas cuestiones con un caso donde las simulaciones se encuentran
integradas al diseño experimental, y el conocimiento novedoso que proporcionan
pasa a formar parte del resultado final del experimento.
4. CONSIDERACIONES FINALES
El foco puesto en el empleo de las simulaciones computacionales integradas a un
experimento nos permitió poner de relieve su papel preponderante en estos ámbitos
donde los sistemas moleculares resultan inaccesibles teóricamente y
experimentalmente debido a su complejidad. El proceso estereo-selectivo detallado de
la dinámica quiral, a nivel de molécula simple, sólo pudo obtenerse con el aporte de
las simulaciones computacionales. Hemos mostrado que instrumentos y simulaciones
trabajan codo a codo en el desarrollo del experimento. La interacción de distintas
simulaciones entre sí y con el microscopio de escaneo dinámico de efecto túnel STM,
permitió desentrañar las componentes de los movimientos a nivel atómico. En este
sentido, hemos destacado que las simulaciones no son paquetes cerrados, sino que se
ajustan al caso de estudio.
Las simulaciones computacionales además de interpretar los datos provistos por el
STM, brindaron nueva información relevante: el hecho de que sólo en la proximidad
las moléculas sufrían grandes cambios conformacionales que les posibilitaban el
acoplamiento y además, la formación de un enlace hidrógeno que estabilizaba la
unión en cadena. Como hemos puesto de relieve, el experimento proporcionó como
resultado un modelo del fenómeno en el que se incorporó esta información brindada
por las simulaciones. Si bien, para establecer su fiabilidad, la misma había sido
contrastada por otra técnica experimental.
La integración de las simulaciones computacionales a los diseños experimentales
potencia el estudio de los sistemas moleculares. La interacción analizada entre STM y
simulaciones computacionales DFT – Car-Parrinello se encuentra consolidada como
una nueva y más precisa metodología para la determinación sin ambigüedad de la
estructura de moléculas simples. Asimismo, esta metodología constituye una potente
herramienta para el estudio de las dinámicas moleculares.
5. REFERENCIAS BIBLIOGRÁFICAS
Binnig, Gerd, Rohrer, Heinrich (1982), «Scanning Tunneling Microscope», United States Patent,
International Business Machines Corporation, Patent Number 4, 343,993 (August 10), 1-11.
Car, Roberto, Parrinello, Michelle (1985), «Unified Approach for Molecular Dynamics and Density
Functional Theory», Physical Reviews Letters (55), 2471-2474.
Farge, Marie (2007), «Numerical Experimentation: A Third Way to Study Nature», en Yukio Kaneda,
Hiroshi Kawamura, y Masaki Sasai (eds.) Frontiers of Computational Sciences. Berlin, Springer
Verlag, 15-30.
Guala, Francesco (2002), «Models, Simulation, and Experiments», en Lorenzo Magnani y Nancy
Nersessian (eds.) Model-Based Reasoning: Science, Technology, Values. Nueva York, Kluwer, 59-74.
Humphreys, Paul (2004), Extending ourselves: computational science, empiricism, and scientific method,
USA, Oxford University Press.
Humphreys, Paul (1990), «Computer Simulations», PSA: Proceedings of the Biennial Meeting of the
Philosophy of Science Association, 497-506.
Lenhard, Johannes (2007), «Computer simulation: The cooperation between experimenting and
modeling», Philosophy of Science 74 (2), 176-194.
Lingenfelder, Magalí, Tomba, Giulia, Costantini, Giovanni, Colombi Ciacchi, Lucio, De Vita,
Alessandro, Kern, Klaus (2007), «Tracking the Chiral Recognition of Adsorbed Dipeptides at the
Single-Molecule Level», Angewandte Chemie International Edition 46 (24), 4492-4495.
Stryer, Lubert L., Berg, Jeremy M., Tymoczko, John L. (2013), Bioquimica, 7.º edición. España,
Editorial Reverté, 2 vols.
Tomba, Giulia, Lingenfelder, Magalí, Costantini, Giovanni, Kern, Klaus, Klappenberger, Florian,
Barth, Johannes V., Colombi Ciacchi, Lucio, De Vita, Alessandro (2007) «Structure and
Energetics of Diphenylalanine Self-Assembling on Cu (110)», The Journal of Physical Chemistry A
(111), 12740-12748.
Weisberg, Michael (2013), Simulation and Similarity: Using Models to Understand the World, Oxford,
Oxford University Press.
Winsberg, Eric (2010), Science in the Age of Computer Simulation, Chicago, University of Chicago Press.
[1] Las moléculas quirales tienen la propiedad de hacer girarelplano de una luz polarizada en un cierto
ángulo. En relación a la dirección del giro de la luz serán dextrógiras o levógiras.
[2] El desarrollo de Car-Parrinello (1985) combina dinámica molecular y teoría del funcional de la
densidad en un enfoque unificado que es considerado un método de dinámica molecular ab initio.
EL CONCEPTO DE VALIDEZ LÓGICA
EN CRÍSIPO Y LOS ESTOICOS
RESUMEN: Se examina el concepto de validez lógica sustentado por los estoicos, en especial
en la obra de Crísipo de Solos. Dicho concepto es complejo entre los pensadores estoicos y
presenta al menos tres formas; el concepto básico de validez es el de la incompatibilidad entre
las premisas y la negación de la conclusión. La segunda forma radica en la teoría que se refiere
a la existencia de al menos 5 argumentos indemostrables, así como de ciertas reglas o Zémata y
del metateorema de Antípatros, conjunto que permite la demostración de los demás
argumentos. Se trata, en relación con lo anterior, de diferenciar entre el sistema lógico estoico
propiamente tal de los criterios filosóficos de validez. Una tercera forma es la que corresponde
a la formulación de un principio de condicionalización. Este examen permite explorar una
cuarta posibilidad, la de una cierta capacidad cognitiva para captar la validez lógica,
interpretación que tiene fundamentos en los mismos textos fuentes y en enfoques actuales en
filosofía de la lógica.
Palabras clave: estoicos; lógica; deducción; reducción; indemostrables.
L
1.
(1987), B.Mates
Alejandro de Afrodisias),
(1985), J.Bochenski
y autores como
(1947,
Kneale
1961),
y Kneale
Lukasiewicz
(2008), Long
(1934y Sedley
K.Ierodiakonou (2017), señalan a los estoicos y a Crísipo de Solos (280-206 AC) como al
formulador principal del sistema lógico proposicional antiguo. Mas, según Bonevac y
Dever (2012, 185), el concepto de validez lógica es impreciso entre los estoicos. Dicha
tesis puede deberse a que hay al menos tres expedientes en esa escuela, estudiados
por la historia y filosofía de la lógica, según los cuales se puede entender dicho
concepto. En esta primera sección se examinarán dichos tres conceptos de validez y
en la sección 2 se expondrá una interpretación cognitiva que es posible encontrar en
los textos estoicos[1].
El primer concepto de validez estoico estriba en que la negación de la conclusión
es incompatible con la conjunción de las premisas (Mates 1985, 103), lo que constituye
una ley básica de la lógica hasta hoy. Pero esa primera forma en realidad se cumple, y
hay que entenderla en su conjunto, mediante otra idea, la de demostración, en la que
existen al menos 5 argumentos que, siendo ellos mismos indemostrables, permiten
demostrar otros (Diógenes Laercio, 2005, L.7, 76-81; Sexto 1997, L.VIII (II), 223). La
reducción a indemostrables (άναπόδεικτοι) constituye la segunda base de
validez lógica, que se examinará en lo que sigue. Dicha reducción: «Constituye una
obra maestra de agudeza lógica», según Lukasiewicz (1934/1986, 116)[2].
Expresados en su forma clásica original, según el lenguaje de los estoicos y en su
formalización actual, con ciertas advertencias (véase notas al pie 1 y 4), los
indemostrables son:
• El primer indemostrable: Si lo primero, entonces lo segundo; pero lo primero,
luego lo segundo; p→q, p ⊢ q[3];
• El segundo: Si lo primero, entonces lo segundo; pero no lo segundo, luego no lo
primero; p→q, ¬q ⊢ ¬p;
• El tercero: No lo primero y lo segundo a la vez; pero lo primero, luego no lo
segundo; ¬(p ^ q), p ⊢¬q;
• El cuarto: Lo primero o lo segundo; pero lo primero, luego no lo segundo; p v q, p
⊢¬q;
• El quinto: Lo primero o lo segundo; pero no lo segundo, luego lo primero; p v q, ¬q
⊢p[4].
Sobre este listado de 5 indemostrables, Ierodiakonou afirma que:
Al sugerir este particular listado de cinco tipos de argumentos indemostrables,
Crísipo no estaba obviamente tratando de introducir el número más pequeño posible
de diferentes argumentos indemostrables. Más bien parece que él incluyó en su lista
todos los tipos de argumentos que descansaban sobre la fuerza argumentativa de los
diferentes tipos de conectivas conocidas por él (Ierodiakonou, 2017,62).
Los estoicos expresaron los argumentos como modos, λόγοι, en que usaban
números ordinales, como esquemas, como los expresados más arriba, pero, también,
como argumentos con contenido: «Si es de día, hay luz; pero es de día, luego hay luz»
(Diógenes Laercio, 2005, VII.77). El mismo Diógenes ejemplifica casos de
indemostrables así, como el primero de ellos: «Si Dion camina, entonces Dion se está
moviendo; pero Dion está caminando, luego Dion está en movimiento» (D.L.,2005,
VII.78). Los modos no son sino las formas de los indemostrables.
Los 5 indemostrables se complementan con 4 reglas básicas (de las cuales las
fuentes conservan solamente 2, la primera y la tercera, como lo afirma Ierodiakonou,
2017, 63) y un metateorema dialéctico o sintético, que permite la deducción[5]. Dicho
metateorema, atribuido al estoico Antípatros de Tarso (vivió alrededor de 150-130 AC,
mucho después de Crísipo), puede resumirse diciendo que la conclusión de un
argumento determinado puede a su vez ser considerada premisa en otro argumento
para permitir una demostración (ver Long y Sedley 1987, 217, en que citan la
formulación de Sexto). Puede pensarse que este teorema es uno de los más básicos y
fundamentales que pueda encontrarse en lógica, pues permite que la deducción
realmente ocurra. Con estos elementos muy resumidos se puede comprender la
segunda idea de validez deductiva para los estoicos: un argumento A es válido si: 1) A
es un indemostrable, simple, o si 2) A es «silogístico», complejo y reductible a alguna
forma de los indemostrables I1,…I5. Katerina Ierodiakonou (2017,65) afirma que los
mismos estoicos consideraron que solamente los argumentos «silogísticos» podían ser
reducidos a los indemostrables, con lo que, al parecer, la validez descansaba
finalmente en esa condición de ser silogístico. Ahora bien, silogístico es aquel que es
reductible, por lo que esta discusión queda algo abierta y circular (ver O’Toole y
Jennings 2004, 498).
Afirma Sexto que los argumentos: «No simples son aquellos que son compuestos
de simples y deben ser primero analizados (άναλύσεως) en simples si hemos de
conocer
Sexto queque
la son
validez
válidos»
de un
. (Sexto
argumento
Empírico,
aparecerá
1997, L.VIII (II), es
cuando 229).
analizado.
Y, en VIII (II) 223, dice
Un ejemplo de
análisis o reducción R de un argumento A, que el mismo Sexto expone, se lo puede
premisas,como
graficar equivale,
A =R entonces,
Indem.1 +aIndem.1.
los indemostrables
El argumentoen que
A, que
se descompone
en este caso posee dos
mediante el
metateorema y los zémata. Un argumento silogístico puede reducirse a varios
indemostrables del mismo tipo, como en el ejemplo que sigue, o en indemostrables de
más de uno de los cinco tipos. La reducción R o análisis del ejemplo de Sexto es:
1) p→q
p q
no p q
no p no q
2) p
p
RESUMEN:
Palabras clave: innovación educativa; contexto de descubrimiento; diseño experimental;
laboratorio; indagación; docencia; interdisciplinariedad.
1. INTRODUCCIÓN
H ace ya casi dos décadas que se viene hablando de la importancia y la necesidad
innovar en educación
tradicionales
de educaciónno(Carbonell
se adaptan2001).
a los cambios
Por unsociales
lado, ylos
económicos
métodos
2. REFERENCIAS BIBLIOGRÁFICAS
Alberts, B. (2008), «Considering Science Education (editorial)», Science, 319, 21, 1189.
Barrow, L. H. (2006), «A Brief History of Inquiry: from Dewey to Standards», Journal of Science
Teacher Education, 17, 265-278.
Carbonell i Sebarroja, Jaume (2001), La aventura de innovar, Madrid, Morata.
Estany, Anna y Herrera, Rosa M. (2016), Innovación: saber teórico y práctico, UK, College Publications.
Garritz, Andoni (2010), «Indagación: las habilidades para desarrollarla y promover el aprendizaje»,
Educación Química, 21(2), 106-110.
Garritz, Andoni (2012), «Proyectos educativos recientes basados en la indagación de la química»,
Educación Química, 23(4), 458-464.
González Rodríguez, Leticia y Crujeiras Pérez, Beatriz (2016), «Aprendizaje de las reacciones
químicas a través de actividades de indagación en el laboratorio sobre cuestiones de la vida
cotidiana», Enseñanza de las Ciencias, 34, 143-160.
González-Weil, Corina et al. (2012), «La indagación científica como enfoque pedagógico: estudio
sobre las prácticas innovadoras de docentes de ciencia en EM», Estudios Pedagógicos XXXVIII, 2,
85-102.
Hargreaves, Andy (2003), Enseñar para la sociedad del conocimiento: la educación en la era creativa,
Barcelona, Octaedro.
Lascáris, T. (2008), «Legitimación social de la ciencia como factor estratégico para el desarrollo en
América Latina», Intervención en el Congreso Iberoamericano Ciudadanía y Políticas Públicas en
Ciencia y Tecnología, Madrid 5 al 8 de febrero de 2008.
Macedo, B. y Katzkowicz, R. (2005), «Alfabetización científica y tecnológica: Aportes para la
reflexión», Publicación digital de OREALC/UNESCO Santiago.
Martínez Celorrio, Xavier (2016), «Innovación y reestructuración educativa en España: las escuelas
http://www.unesco.cl/medios/alfabetizacion_cientifica_tecnologica_aportes_reflexion.pdf
del nuevo siglo», en AAVV, Informe España 2016, Madrid, Cátedra Martín-Patino.
Martínez García, José Saturnino (2007), «Clase social, género y desigualdad de oportunidades
educativas», Revista de Educación, 342, 387-306.
Reyes-Cárdenas, Flor; Padilla, Kira (2012), «La indagación y la enseñanza de las ciencias», Educación
Química, 23(4), 415-421.
INFORMACIÓN BIOLÓGICA
Y BIOLOGÍA SINTÉTICA
(1) Facultad de Ciencias y Filosofía, Universidad Peruana Cayetano Heredia, Lima, Perú
walter.riofrio.r@upch.pe
RESUMEN: Se sabe que los seres vivos son un tipo de sistemas disipativos. Una clase muy
especial, porque logran mantenerse lejos del equilibrio termodinámico por razones que son
internas a estos sistemas. Los sistemas vivos son lo suficientemente buenos para capturar la
energía de su entorno y disipar esa energía en forma de calor. Pero en el intermedio, se auto
organizan, sobreviven y se replican.
Así, sostengo que todos estos fenómenos son posibles solo si se toma en consideración que la
información biológica es una propiedad clave del origen de la vida. Esta propuesta de
información biológica está respaldada por el hecho de que considero que los sistemas vivos son
fundamentalmente de naturaleza informativa.
En otras palabras, son sistemas que generan, transmiten y procesan información que
proviene tanto de su entorno interno como del entorno que lo rodea. Esta emergencia previa
de la información biológica no necesariamente se refiere a la auto-replicación de polímeros que
codifican información.
Y dado que sostengo que la información biológica es una propiedad fundamental de lo
viviente, entonces, si queremos construir dispositivos que interactúen con los sistemas vivos,
parece que una idea interesante es desarrollar circuitos y redes moleculares que mimeticen a
esta propiedad.
Palabras clave: Bio-significado; propiedad emergente; sistemas disipativos; variaciones
energético-materiales.
INTRODUCCIÓN
realizar
distinción
na manerauna
entre
razonable
descripción
los posibles
de comenzar
somera
sentidos
acerca
ade
plantear
la noción
de los
dicha
de
tipos que es hacer una
«información»,
relación,
U
1.
o quizá,
contemplan la
aplicación de este concepto. De manera breve, podemos mencionar al menos tres
aproximaciones.
La primera, nos remite a considerar la información como una entidad real, al igual
que la materia o la energía. Es decir, la información existe independientemente de
cualquier otra cosa existente y, por tanto, la información es, en esencia, informativa
en sí misma.
La segunda aproximación, considera que la información sería un constructo
humano que sería útil solo si nos permite describir ciertas correlaciones que se
pueden producir entre ciertos fenómenos. En efecto, en la medida que ciertos eventos
(o, variables) tiene un número de estados alternativos asociados o «correlacionados»
con ciertos hechos, entonces, el concepto de información (fundamentalmente la
noción de información de Shannon) podría ser aplicado en esos casos.
Existiría una tercera forma de aproximarse al concepto de información. Este
enfoque se centra en la naturaleza relacional del concepto de información.
Es decir, la información se ve siempre «en relación con» (o «con relación a») algo o
alguien (una persona, un grupo de personas, una entidad o un ser vivo).
En términos de este último enfoque, afirmar que la información tiene una propia
existencia intrínsecamente informativa sería un error. Todo lo contrario, sostiene que
la información es enviada y transportada a través de un medio (el transportador), y
también, que debe haber una entidad que reciba la información (el receptor).
En otras palabras, debido a que la información es relacional (es «información
relativa a»), el portador de la información (entendido como información potencial), y
el receptor (que actualiza dicha información potencial) deben de participar en algún
tipo de interacción. La consecuencia, entonces, es que «algún tipo de cambio» se produce
cuando la información es enviada, recibida y procesada.
La noción de información biológica que propongo se enmarca, precisamente,
dentro de este tercer enfoque.
En este contexto, resulta interesante observar que la comunidad de biólogos está
aceptando, progresivamente, el concepto de información como fundamento del
conjunto de fenómenos que constituyen a los sistemas vivos.
3. REFERENCIAS BIBLIOGRÁFICAS
Asano, Masanari, Basieva, Irina, Khrennikov, Andrei, Ohya, Masanori, Tanaka, Yoshiharu, Yamato,
Ichiro (2015), «Quantum Information Biology: From Information Interpretation of Quantum
Mechanics to Applications in Molecular Biology and Cognitive Psychology», Foundations of
Physics 45(10), 1362-1378.
Dupré, John (2012), Processes of Life: Essays in the Philosophy of Biology, Oxford University Press.
Floridi, Luciano (2011), The Philosophy of Information, Oxford University Press.
Gašper, Tkacik, Bialek, William (2016), «Information Processing in Living Systems», Annual Review of
Condensed Matter Physics (7), 89-117.
Ge, Hui, Walhout, Albertha J., Vidal, Marc (2003), «Integrating “omic” information: a bridge
between genomics and systems biology», Trends in Genetics 19(10), 551-560.
Godfrey-Smith, Peter (2007), «Information in Biology», en David L. Hull y Michael Ruse (eds.) The
Cambridge Companion to the Philosophy of Biology. Cambridge University Press, 103-119.
Peirce, Charles S. (1868), «On a New List of Categories», Proceedings of the American Academy of Arts
and Sciences (7), 287-298.
Prigogine, Ilya (1980), From being to becoming, W. H. Freeman and Company, San Francisco.
Riofrio, Walter (2007), «Informational dynamic systems: Autonomy, information, function», en
Carlos Gershenson, Diederik Aerts y Bruce Edmonds (eds.) Worldviews, science, and us: Philosophy
and complexity. Singapore, World Scientific, 232-249.
LAS ROSAS SON ROJAS Y EL DOLOR (NECESARIAMENTE)
DESAGRADABLE
RESUMEN: Uno de los principales retos para las teorías que tratan de dar cuenta del aspecto
desagradable de la experiencia es explicar el problema de la heterogeneidad. Puesto de manera
sencilla, explicar cómo puede ser que el dolor de cabeza, la comezón, o el sentir de un luto sean
todas experiencias cualitativamente desagradables a pesar de que son cualitativamente tan
diferentes, esto es, a pesar de que no hay nada fenomenológico que una a todas estas
experiencias y en virtud de lo cual todas y sólo estas experiencias cuentan como experiencias
desagradables. Presentaré una teoría hedónica que sí es capaz de encarar dicho problema. Esta
teoría se basa en la distinción determinante-determinable. La idea, a grandes rasgos, es la
siguiente: de la misma manera en la que se puede entender a la propiedad ser escarlata como
una determinante de la determinable ser rojo, defiendo que ser dolor puede ser entendido como
una propiedad determinante de la determinable ser experiencia desagradable. De esta manera el
problema de la heterogeneidad puede ser resuelto.
Palabras clave: dolor; desagradable; heterogeneidad; propiedad; determinable; determinante.
1. EL PROBLEMA DE LA HETEROGENEIDAD
E l dolor es el ejemplo paradigmático de una experiencia desagradable. Es decir,
muy a pensamos en una experiencia desagradable, es el dolor el ejemplo que
cuando
menudo nos viene a la mente. Así, el dolor es el ejemplo principal en
filosofía de la mente para tratar de dar cuenta del aspecto desagradable de la
experiencia. El propósito principal de este texto es esclarecer uno de los aspectos
importantes de las experiencias desagradables, incluyendo al dolor. A saber, en este
texto expondré el problema de la heterogeneidad y mostraré una manera de encarar
dicho problema. El problema es el siguiente. Tenemos una intuición fuerte de que: i)
todas las experiencias desagradables y solamente estas experiencias se sienten
desagradables, es decir, es en virtud de sentirse desagradables que dichas experiencias
cuentan como tales; sin embargo, después de una introspección minuciosa también
tenemos la intuición fuerte de que ii) no hay nada cualitativo, nada fenomenológico,
un sentir unitario, que todas las experiencias desagradables comparten y en virtud de
lo cual éstas, y sólo éstas, son desagradables. Para ponerlo en términos más sencillos,
todas las experiencias desagradables se sienten desagradable, pero, a la vez, todas
ellas se sienten muy diferente.
Antes de adentrarnos en las posibles soluciones para este dilema, demos un par de
ejemplos para que el problema quede claro. El problema de la heterogeneidad es a
menudo atribuido a Feldman (2004)when carefully and charitably interpreted, certain
forms of hedonism yield plausible evaluations of human lives. Feldman begins by
explaining what we mean when we ask what the Good Life is. He argues that this
should not be taken to be a question about the morally good life or about the
beneficial life. Rather, the question concerns the general features of the life that is
good in itself for the one who lives it. Hedonism says (roughly:
La reflexión sobre los placeres sensoriales revela rápidamente una enorme heterogeneidad
fenomenológica… Consideremos la sensación de placer, cálida, seca y ligeramente
somnolienta que se obtiene al tomar el sol en una playa tranquila. Por el contrario,
consideremos la sensación de placer fresca, húmeda y vigorizante que se obtiene al beber
cerveza fría y refrescante en un día caluroso… No se sienten para nada iguales. Después de
muchos años de investigación cuidadosa sobre esta cuestión, he llegado a la conclusión de
que dichas experiencias no tienen casi nada en común fenomenológicamente[1]. (Feldman
2004, 74)when carefully and charitably interpreted, certain forms ofhedonism yield plausible
evaluations of human lives. Feldman begins by explaining what we mean when we ask what
the Good Life is. He argues that this should not be taken to be a question about the morally
good life or about the beneficial life. Rather, the question concerns the general features of
the life thatis good in itself for the one who lives it. Hedonism says (roughly
A pesar de que Feldman, y gran parte de la discusión sobre la heterogeneidad
circunda alrededor del placer, se tiene la misma intuición respecto a las experiencias
desagradables. Por ejemplo Korsgaard (1996, 148) nos dice que «si lo desagradable del
dolor residiera en el carácter de las sensaciones… nuestra creencia de que el dolor
físico tiene algo en común con el luto, la ira y la desilusión sería inexplicable». De la
misma manera, cuando tomamos en cuenta diferentes experiencias de dolor, tales
como las producidas cuando nos quemamos, cuando nos cortamos, un dolor de cabeza
o de estómago, etc., no es claro que haya una cualidad fenomenológica, una manera en
la que todas y sólo estas experiencias se sientan igual y en virtud de la cual todas y
sólo estas experiencias cuenten como experiencias desagradables. ¿Cómo podemos
entonces dar cuenta de lo que unifica a las diversas experiencias desagradables?
4. REFERENCIAS BIBLIOGRÁFICAS
Bain, David (2013), «Pains that don’t hurt», Australasian Journal of Philosophy 92(2), 305-320.
Bramble, Ben (2013), «The distinctive feeling theory of pleasure», Philosophical Studies 162, 2, 201
217.
Crisp, Roger (2006), Reasons and the good, Oxford, Clarendon.
Feldman, Fred (2004), Pleasure and the good life: Concerning the nature, varieties, and plausibility of
hedonism, Oxford, Clarendon Press.
Funkhouser, Eric (2014), The logical structure ofkinds, Oxford University Press.
Grahek, Nikola (2007), Feeling pain and being in pain, 2.ª edición, Cambridge, Massachusetts, MIT
Press.
Gray, Richard (2014), «Pain, perception and the sensory modalities: Revisiting the intensive
theory», Review of Philosophy and Psychology, 5(1), 87-101.
Johnson, William Ernest (1921), Logic, Cambridge, Cambridge University Press, 3 vols.
Kagan, Shelly (1992), «The limits ofwell-being», Social Philosophy and Policy, 9(2), 169-189.
Klein, Colin (2015), «What pain asymbolia really shows», Mind, 124(494), 493-516.
Korsgaard, Christine (1996), The sources ofnormativity, Cambridge, Cambridge University Press.
Prior, Arthur Norman (1949), «Determinables, determinates and determinants», Mind 58(229), 1-20.
Wilson, Jessica (2017), «Determinables and determinates», en Edward N. Zalta (ed.), The Stanford
Encyclopedia of Philosophy (Spring 2017), Stanford University.
[1] Todos la citas textuales son traducciones mías.
NO ES TIEMPO DE MUROS
1. PREÁMBULO
E sta comunicación se enmarca dentro de la responsabilidad social de la filosofía
en
democrática en aquellos
cuanto a propiciar el uso
temas
público
que están
de laal
razón,
ordenenriqueciendo
del día en la agenda
la deliberación
pública
de nuestros países.
2. PERSPECTIVA DE ACTUALIDAD
En el segundo semestre de 2016, casi veinte años después de la «Declaración sobre
la Raza» de la Asociación Americana de Antropología en la cual se sostenía que las
razas no existen (Wade, 2015), Estados Unidos se debatía en medio de la violencia
racial a pesar de la presidencia de un afrodescendiente y del lema #blacklivesmatter.
Finalmente los resultados electorales de noviembre de 2016 dan el triunfo al
candidato y al partido más proclive a las posiciones racistas o xenofóbicas.
Mientras tanto, en Colombia, tras un cuarto de siglo con una constitución laica,
una simple cartilla escolar sobre sexualidad (M.E.N., U.N.F.P.A. 2016), emanada del
Ministerio de Educación Nacional y elaborada por el Fondo de Poblaciones de las
Naciones Unidas, logró que las iglesias católica y evangélicas movilizaran en las calles,
el 10 de agosto de 2016, a cientos de miles de personas «en defensa de la familia» y
contra la «ideología de género», lo cual terminaría repercutiendo en la derrota de la
refrendación de los Acuerdos de Paz entre el Estado y la mayor de las guerrillas
(Gómez-Suárez 2016). Esta cartilla se tituló «Ambientes escolares sin discriminación»
y en ella el aspecto sociocultural se deslinda de manera rotunda respecto a la biología.
Así, por ejemplo, en M.E.N., U.N.F.P.A (2016, 19) se asegura que «no se nace siendo
mujer u hombre, sino que se aprende a serlo, de acuerdo con la sociedad y época en
las que se crezca».
En estos y otros casos similares se debate una posición tradicionalista y
conservadora contra una posición liberal y progresista. Lo curioso es que son las
posiciones conservadoras las que acuden a la biología, mientras que las progresistas se
atrincheran en un construccionismo social, y cuando no abrazan la tabula rasa,
entonces minimizan la importancia de la biología reduciéndola como mucho a un
trasfondo, una base plástica indiferenciada que es modulada sin mayores resistencias
por la cultura (Pinker 2002; Hacking 2001). Olvidando la falacia naturalista, el discurso
construccionista radical ha acomodado el término «naturalización» con un sentido
equívoco, el de ser un «velo ideológico legitimador», carente de fundamento
científico. Según esto, «naturalizar» es un truco ideológico de ocultamiento del
carácter social y, por ende, cambiable y relativo al contexto, de aquella cosa a la cual
se aplique. En este mismo sentido se asegura que «lo natural es una construcción
social».
Estas tesis progresistas son acolitadas por organismos como la ONU, las élites
políticas e intelectuales, y se las considera como «políticamente correctas»,
convirtiéndose en el discurso hegemónico en las Organizaciones No Gubernamentales,
grupos de presión y movimientos sociales. Esto se debe a los valores que abanderan,
tales como la libertad, la igualdad, la tolerancia, la dignidad inherente a la condición
humana y el respeto a la diversidad. Y también a que invocan a su favor la ciencia y la
filosofía, pero esto resulta contradictorio dado el desconocimiento que hacen de la
biología que desde hace 150 años reubicó a la especie humana en la esfera ontológica
de la naturaleza.
La tarea crítica de la filosofía no puede enfocarse exclusivamente en la posición
tradicional, sino que debe someter a examen todas las tesis en pugna, incluyendo la
denominada «corrección política». Someter a los valores de libertad, igualdad y
tolerancia a examen crítico, es válido, pero sería tema para otra ocasión. En este
trabajo partimos de aceptar tales valores como premisa para cuestionar a
continuación si el construccionismo social constituye su fundamento científico
adecuado cuando desconoce la naturaleza humana y sus constricciones biológicas a la
libertad y la igualdad.
En especial, para la filosofía de la ciencia es prioritario poner en cuestión el
supuesto fundamento científico de las creencias en torno a la sexualidad, la raza u
otras categorías del ámbito de la sociedad humana, ya sean de la ideología
conservadora, liberal, marxista o cualquier otra que incida en la deliberación pública.
Los hechos mencionados arriba y otros similares muestran que esta tarea está en el
orden del día con plena pertinencia, en especial con respecto a la ideología liberal
predominante.
3. PERSPECTIVA HISTÓRICA
Los primeros intentos de interconexión entre la biología y las ciencias sociales
durante el siglo XIX llevaron al auge de teorías pseudocientíficas como la frenología,
la craneometría, la fisiognomía, el darwinismo social, entre otros. Estas ideas
terminarían convirtiéndose en rotundos fracasos científicos, pero durante décadas
alimentaron discursos racistas, sexistas y homofóbicos hasta llegar a la apoteosis de la
eugenesia totalitaria del nazismo durante la segunda guerra mundial (Mukherjee
2017, 102). No extraña entonces que en la atmósfera de la posguerra florecieran
concepciones que tomaran distancia de la biología. El Segundo Sexo de Simone de
Beauvoir, publicado en 1949, es un ejemplo emblemático de esta tendencia (Senior
2011, 70). Mi hipótesis es que aquellos antecedentes encasillaron a la biología en la
derecha del espectro político y como efecto reactivo llevaron a las corrientes
progresistas y liberalizantes a un rechazo sin mayores fundamentos de la base
biológica del ser humano, como si de una estructura estática, homogénea e
inmodificable se tratase. De manera patente o velada, el idealismo y el dualismo
ontológicos permearon a las izquierdas. Hacking (2001), en su libro La construcción
social ¿de qué?, traza un panorama de cómo este enfoque, aupado por el
posmodernismo, se tornó epidémico, a la vez que pone en evidencia algunas de sus
debilidades epistemológicas al exagerar los componentes subjetivos.
Wallerstein (1996), en el informe de la Comisión Gulbenkian, describe cómo la
configuración de las diferentes disciplinas para investigar la sociedad humana
obedeció a una serie de circunstancias pragmáticas (por ejemplo el acceso a la
información), circunstancias ideológicas (visión liberal) y de orden institucional, mas
no a un diseño fundamentado epistemológicamente, lo que las hace más permeables a
las influencias ideológicas. Dos décadas después del Informe, la reestructuración de
las fragmentadas ciencias sociales sigue siendo una asignatura pendiente.
Mientras tanto, la biología, fragmentaria en el siglo XIX, logra a lo largo del siglo
XX una poderosa síntesis teórica y anclarse fuertemente en la química, la física y la
matemática (Senior 2012, 73). Utilizando los avances desde la genética hasta la
etología, la sociobiología (Wilson 1980) (Ruse 1983) es, quizás, la primera incursión
fuerte de la biología en el territorio de las ciencias de la acción humana. El debate
Edward Wilson (y Richard Dawkins) vs. Richard Lewontin (Lewontin 1984) es un
referente obligado para expresar la tensión entre la primacía de la naturaleza humana
o del ambiente social en el terreno de la explicación causal. Posteriormente, en los
posmodernos años 90, la psicología evolucionista (Tooby y Cosmides 1992) lanza un
nuevo embate contra el construccionismo social definido como el «modelo estándar
de las ciencias sociales» (Gibert 2012; Stamos 2006), por ejemplo en el texto The
adapted mind y en particular el capítulo de Tooby y Cosmides titulado «Los
fundamentos psicológicos de la cultura». A partir de aquí la polémica «nature vs.
nurture» se agudiza, desatándose las llamadas «science wars» o guerras de las ciencias,
en las cuales las ciencias sociales parecen atrincherarse en un determinismo
culturalista, que es otra forma de reduccionismo, antípoda y espejo del determinismo
genético que anida en el otro extremo.
El éxito del proyecto Genoma Humano, inmensos descubrimientos de la
paleogenómica sobre la filogénesis reciente de nuestra especie, notorios progresos de
la neurociencia usando la tecnología de Imagen por Resonancia Magnética funcional
(fRMI), nuevas investigaciones en genética del comportamiento (Plomin 2013),
psicología biológica (Corr 2008) y cognitiva, epidemiología, terapia génica, biología del
desarrollo, hacen sonar las trompetas que derriban los muros del construccionismo
social y recuperan un enfoque integral de la naturaleza humana. Aún en el examen de
la evolución social, la relación entre sociedad humana y entorno naturales es
revisitada desde nuevos énfasis en las subdeterminaciones ambientales (Diamond
1999) (Diamond 2006).
Pero a medida que se tienden puentes el flujo causal se vuelve bidireccional y da
pié a la posibilidad de un enfoque sistémico multinivel (Keestra 2010). La primatología
(Tomasello 2007) (De Waal 2007) (Caicedo 2016), la epigenética (Jablonka y Lambs
2016) (Neuman-Held 2009), la integración eco-evo-devo (Garvey 2007) y hasta la
misma neurociencia (Damasio, 2010) (Sampedro 2007) (Castaingts 2011), sustentan los
efectos biológicos de la cultura. Incluso Edward Wilson, fundador de la sociobiología,
defiende la coevolución biológico-cultural, por ejemplo en su obra La conquista social de
la tierra (Wilson 2012, 229). La biología pasa de ser mero trasfondo y bastión de
universales a convertirse en una herramienta de captura de datos relevantes para las
ciencias sociales y, más allá, en un abridor de cajas negras de las determinaciones
sociales, revelando mecanismos y cadenas causales de carácter biosocial (Bunge 1999,
19), esto es, mediaciones biológicas de lo social, en un entramado complejo con el
potencial de explicar la dinámica de la igualdad y la diversidad, en alianza
interdisciplinar con las ciencias sociales. Se abre paso así la convergencia horizontal y
la integración vertical en el estudio de la especie humana, su devenir histórico y sus
complejas formas sociales de vida, brindando cimientos científicos más sólidos al
humanismo liberal. Es tiempo de consiliencia, no de muros.
4. FUTURO
La ironía final es que la transdisciplina biosocial, agrupando las ciencias de la
naturaleza humana (Pinker 2003), se configura como una tecnociencia que rompe los
límites biológicos del pasado y en cierto sentido resetea al construccionismo social al
reconvertirlo en transhumanismo (Diéguez 2016) mediante la intervención de la
naturaleza humana (Habermas 2002). Es el retorno de la eugenesia, ahora en versión
liberal, como analizara Habermas en su libro El futuro de la naturaleza humana y más
allá una ingeniería social de nuevo tipo. Lo que parecía la vía para brindarle al
humanismo liberal un mejor fundamento científico, puede convertirse, como indica
Harari en Homo Deus, (2016, 360) en semilla de su propia destrucción.
5. REFERENCIAS BIBLIOGRÁFICAS
Bunge, Mario (1999), Las ciencias sociales en discusión, 1.ª edición, Buenos Aires, Sudamericana.
Caicedo, Oscar (2016), ¿Cultura animal no humana? Hacia un nuevo concepto de cultura desde la
biología evolutiva, Tesis doctoral, Salamanca, Universidad de Salamanca.
Castaingts Teillery, Juan (2011), Antropología simbólica y neurociencia, Barcelona, Anthropos.
Corr, Philip (2008), Psicología biológica, 1.ª edición, México, McGraw-Hill / Interamericana.
Damasio, Antonio (2010), Y el cerebro creó al hombre, 1.ª edición, Barcelona, Destino.
De Waal, Frans (2007), Primates y filósofos, 1.ª edición, Barcelona, Paidós Ibérica.
Diamond, Jared (1999), Guns, germs and Steel, 1.ª edición, New York, Norton & Co.
Diamond, Jared (2006), Colapso, 1.ª edición, Barcelona, Random House Mondadori.
Diéguez, Antonio (2016), «Transhumanismo: entre el mejoramiento y la aniquilación», Investigación
y ciencia, noviembre de 2016, 48-49.
Garvey, Brian (2007), Philosophy ofbiology, Stocksfield, Acumen.
Gibert Galassi, Jorge (2012), Epistemología de las ciencias sociales, 1.ª edición, Santiago de Chile,
Ediciones Escaparate.
Gómez-Suárez, Andrei (2016), El triunfo del No, 1.ª edición, Bogotá, Icono.
Habermas, Jürgen (2002), El futuro de la naturaleza humana, 1.ª edición, Barcelona, Paidós Ibérica.
Hacking, Ian (2001), ¿La construcción social de qué?, 1.ª edición, Barcelona, Paidós.
Harari, Yuval Noah (2015), De animales a dioses, 1.ª edición, Bogotá, Penguin Random House.
Harari, Yuval Noah (2016), Homo Deus, 1.ª edición, Bogotá, Penguin Random House.
Keestra, Machiel (2012), «Understanding human action: integrating meanings, mechanisms, causes
and contexts», en Repko, Allen F., Newell, William H., Szostak, Rick (Eds), Case studies in
interdisciplinary research, 1.ª edición, Thousand Oaks, Sage Publishers, (225-258).
Jablonka, Eva, Marion Lamb (2016), Evolution infour dimensions, 1.ª edición, Cambridge, MIT Press.
Lewontin, Richard C., Rose, Steve, Kamin, Leon J. (1984), «La legitimación de la desigualdad» en No
está en los genes, 1.ª edición, Barcelona, Drakontos.
M.E.N., U.N.F.P.A. (2016), Ambientes escolares libres de discriminación, 1.ª edición, Bogotá, Ministerio de
Educación Nacional.
Neuman-Held, Eva (2009), «Genes – causas – códigos. Descifrando el privilegio ontológico del ADN»,
en Torreti, Roberto (comp.), Conceptos de gen, 1.ª edición, Santiago de Chile, Universidad Diego
Portales.
Pinker, Steven (2003), The blank slate, New York, Penguin Books.
Plomin, Robert, Kathryn Asbury (2013), Gis for genes, Chichester, Wiley-Blackwell.
Ridley, Matt (2001), Genoma, 1.ª edición, Madrid, Punto de lectura.
Ruse, Michael (1983), Sociobiología, 1.ª edición, Madrid, Cátedra.
Sampedro, Javier (2007), Deconstruyendo a Darwin, 1.ª edición, Barcelona, Crítica.
Senior, Jorge (2011), «Utopía y naturaleza humana: la izquierda y los retos de la biología», Advocatus
(17), 67-79.
Senior, Jorge (2012), «El surgimiento de la biología molecular», Biociencias 7 (1), 69-80.
Stamos, David (2008), Evolución, 1.ª edición, Barcelona, Biblioteca Buridán.
Tomasello, Michael (2007), Los orígenes culturales de la cognición humana, 1.ª edición, Buenos Aires,
Amorrortu Editores.
Tooby, John, Cosmides, Leda (1992), «The psychological foundations of culture», en Barkow,
Jerome, Cosmides, Leda, Tooby, John (eds), The adapted mind: Evolutionary psychology and the
generation ofculture, 1.ª edición, New York, Oxford University Press.
Wade, Nicholas (2015), Una herencia incómoda, 1.ª edición, Bogotá, Editorial Planeta.
Wallerstein, Immanuel et al (1996), Abrir las ciencias sociales, México, Siglo Veintiuno Editores.
Wilson, Edward O. (1980), Sociobiología, 1.ª edición, Barcelona, Omega.
Wilson, Edward O. (2012), La conquista social de la tierra, 1.ª edición, Barcelona, Random House
Mondadori.
EL PROBLEMA DE MARCO: ENTRE PROCESOS INCONSCIENTES
Y TOMA DE DECISIONES
1. INTRODUCCIÓN
El presente trabajo forma parte de un proyecto más general cuyo principal
objetivo es examinar la posibilidad de procesos inconscientes en la toma de decisiones
y sus ventajas. Puesto que este tema excedería los límites de este trabajo, nos hemos
restringido aquí a uno de los principales problemas que en torno a la toma de
decisiones ha surgido en los últimos años, a saber, el problema de marco. De manera
general, el problema de marco (Mc Carthy, J. y Hayes P. 1969; Dennett, D. 1984; Fodor
1986; Ludwig, K. y Schneider, S. 2008) puede interpretarse como un problema referido
a un conjunto de problemas (aspectos) que tienen que ver con la manera en que un
agente selecciona la información relevante, de entre un vasto conjunto de
información, de tal manera que logra realizar la tarea eficientemente. De entre los
distintos aspectos del problema tendremos especial interés por el denominado aspecto
eficiente.
Teniendo en cuenta que el problema de marco se trata en el seno de las Ciencias
Cognitivas y que el objetivo final de estas ciencias es lograr buenos modelos
explicativos y predictivos de cómo funciona la mente humana, nos interesa destacar
en este trabajo que en la literatura del área se acepta que las personas suelen
determinar qué es relevante para una tarea dada de manera rápida y adecuada,
aunque, por supuesto, de vez en cuando surjan errores. A veces se falla porque las
demandas cognitivas son altas, o los recursos cognitivos bajos, pero generalmente los
seres humanos determinamos relevancia con prontitud y precisión, exhibiendo así
cierta «racionalidad» al determinar relevancia. Ahora bien, no parece plausible
atribuir al azar la prontitud y el nivel de éxito logrado y, por lo tanto, una pretendida
solución al problema de marco debería dar cuenta de cómo los humanos determinamos
racionalmente la relevancia. Adentrándonos ya en la posibilidad o no de su resolución,
en este trabajo nos restringiremos a examinar, la autonomía del problema de marco
de la conciencia o del problema de la conciencia. Con otras palabras, y en esto consiste
nuestra cuestión clave, en este trabajo estimaremos los alcances y limitaciones de
ciertas teorías para resolver de manera inconsciente este particular problema.
Vistos nuestros objetivos, comenzaremos por introducir el problema de interés en
este trabajo, a saber, el problema de marco (Sección 1), para luego y ya atendiendo a
nuestra cuestión clave, evaluar en detalle la denominada hipótesis del marcador
somático en su versión más reciente y la posibilidad, o no, de que a esta teoría
explicite el modo inconsciente en que los seres humanos resolvemos este particular
problema (Sección 2). Finalmente examinaremos algunos inconvenientes que esta
teoría postula como así también algunas alternativas al momento de superarlos
(Sección 3). En los comentarios finales, presentaremos un breve resumen de lo
realizado. Sostendremos que la hipótesis del marcador somático, podría no sólo
colaborar en la resolución del problema de marco sino también, y esto es de sumo
interés para nuestro trabajo, permitiría sostener un tipo de resolución inconsciente
del problema puesto que, aunque con muchas críticas, esta hipótesis admite que cierto
nivel de decisiones puedan ser llevada a cabo por procesos no conscientes.
2. EL PROBLEMA DE MARCO
El problema de marco (Mc Carthy y Hayes, 1969) surgió dentro del campo de la
Inteligencia Artificial, más precisamente dentro del cálculo de situaciones, como el
problema acerca de cómo representar, de la forma más concisa posible, el hecho de
que en una situación determinada la mayoría de las propiedades de los objetos
permanecen iguales o no son afectadas por la ejecución de una determinada acción.
Sin embargo, este mismo problema fue abordado luego por varios filósofos de la
mente (especialmente por Dennett, 1984 y Fodor 1986) convirtiéndose actualmente en
un problema de relevancia y en motivo de extensos e interesante debates alrededor de
su definición y resolución. En efecto, estos debates han girado alrededor de dos
dificultades que, a nuestro entender, resultan primordiales a la hora de tratar el
problema de marco: la dificultad definicional, la dificultad por definir en qué consiste el
problema de marco puesto que se han propuesto varias y disímiles interpretaciones
del mismo y la dificultad resolutiva, la dificultad por resolver el problema si es que
existe una solución y si ésta es universal.
Justamente, y para evitar ciertas confusiones con respecto a su definición, en este
trabajo interpretaremos el problema de marco, como un conjunto de problemas
relacionados con la relevancia (Crockett 1994, Pinker 2005; Ludwing y Schneider 2008;
entre otros).De acuerdo a esta interpretación, y en el contexto de la realización de una
tarea, el problema de marco cuestiona cómo un sistema cognitivo, que posee una
enorme cantidad de información, selecciona la información relevante para la
realización de una tarea en un tiempo acotado y con recursos computacionales
limitados. A esta interpretación se refiere el aspecto eficiente del problema de marco,
de particular interés en este trabajo. Sin embargo, y antes de avanzar, nos parece
prudente destacar otros dos aspectos del problema, puesto que son de gran
importancia a la hora de describir este problema. El aspecto computacional, a grandes
rasgos, apunta a la tratabilidad computacional lo cual involucra el supuesto de que la
teoría computacional de la mente requiere que los procesos mentales sean
computacionalmente tratables, pero también que estos procesos no demanden ni más
tiempo ni más recursos que, se supone, los humanos demandarían. Por otro lado, el
aspecto epistemológico del problema cuestiona cómo un sistema cognitivo «sabe»,
después de una búsqueda parcial, que lo que seleccionó es lo «realmente» relevante y
que, además, «sabe» que la información recolectada ya le es suficiente para llevar a
cabo una tarea determinada. Para comprenderlo más fácilmente imagínese la
siguiente situación. A un agente se le dio una tarea a realizar, para lo cual, dados sus
recursos temporales y cognitivos finitos, analizó solamente una parte de la
información de su base de datos, la procesó, retuvo parte de ella, desechó otra parte y
considera que está listo para realizar la tarea en cuestión. A partir de esta situación,
surgen distintas preguntas. En primer lugar, ¿cómo sabe el agente que la información
retenida es genuinamente relevante si, en principio, el conocimiento de la
información no considerada podría convertir la información retenida en irrelevante?
A su vez, surge la pregunta de cómo saber que la información desechada es
genuinamente irrelevante si, en principio, el conocimiento de la información no
analizada podría convertir la información rechazada en relevante.
Ahora bien, y continuando ahora con la dificultad resolutiva del problema de
marco, en esta ocasión, nos restringiremos solamente a aquellas que apelan al rol de
las emociones al querer solucionarlo. Teniendo en cuenta que el problema de marco
es un problema «bisagra» entre el campo de la Inteligencia Artificial y la Filosofía de
la Mente, esta vía de resolución genera cierta esperanza puesto que los humanos, a
diferencia de las computadoras, poseemos emociones. Sin embargo, apelar a esta
diferencia sin más, ilustrada a través de varios ejemplos clásicos del problema de
marco, resulta demasiado simplificado y parcial. En este trabajo, examinaremos al
problema de marco teniendo en cuenta los procesos subyacentes a la toma de
decisiones, prestando particular interés a aquellos de tipo inconscientes. Sostenemos
que esta particular manera de abordar el problema de marco, constituye un novedoso
y original aporte pues, luego de explorar la literatura sobre el tema, observamos que
esta cuestión no está del todo explorada. A continuación, y desde esta perspectiva,
consideraremos una de las hipótesis que promete resolver parcialmente el problema
de marco o resolver el problema de marco en situaciones de incerteza.
4. ALGUNASLIMITACIONES
Nos parece interesante destacar, no haber encontrado en la literatura sobre el
tema, algunos ejemplos o casos donde se haya logrado alta conductividad dérmica con
decisiones ventajosas, sin que previamente se haya accedido conscientemente a
recompensas castigos, puesto que es una posibilidad que no puede descartarse en
principio. Si esto último fuera posible, favorecería aún más la autonomía del problema
de marco de la conciencia o del problema de la conciencia. Pero no todos los
investigadores aceptan que, existan o tengan relevancia, causas inconscientes en la
toma de decisiones. Al respecto, veamos el siguiente experimento. Maia y McClelland
(2004) elaboran un cuestionario más específico a un grupo separado de participantes.
Mientras Bechara y Damasio (2005) preguntan muy sintéticamente, «Dígame todo lo
que sabe acerca de cómo va este juego» y «Dígame que siente acerca de este juego»,
Maia y McClelland lo hicieron con las siguientes preguntas:
Q1: Tasar, sobre una escala de –10 a +10, cuán bueno o malo usted piensa que es la
baraja 1, donde –10 significa que es terrible y +10 que es excelente.
Q2. Ok, ¿por qué usted tasa a la baraja 1 con…?
[Repetir las preguntas Q1 y Q2 desde la baraja 2 a la baraja 4]
Q3. Al responder las siguientes preguntas considere las siguientes definiciones. Su
«cantidad ganadora» para un ensayo es la cantidad de la cantidad que usted ganó en
aquel ensayo. Su «pérdida» sobre el ensayo es la cantidad que usted perdió en el
ensayo. Su «resultado neto» para el ensayo es la cantidad que usted ganó menos la
cantidad que perdió en aquel ensayo. ¿Usted comprende estas definiciones y la
diferencia entre los tres términos?
Ok, ahora suponga que ha elegido 10 cartas de la baraja 1.
Q3.1 ¿Qué debería esperar de su resultado neto promedio?
Q3.2 ¿Qué esperaría de su cantidad de ganancia promedio?
Q3. ¿Cuántas veces esperaría en 10 tiradas pérdidas?
Q3.4 Para aquellos ensayos en que usted obtiene pérdidas, ¿qué esperaría que sean
las pérdidas promedio?
Repetir las preguntas Q3 desde las barajas 2 a la 4.
Siguen dos preguntas más pero creemos que lo expuesto es suficiente para
mostrar las diferencias entre las preguntas de Bechara y Maia El grupo al que se le
tomó el cuestionario más preciso, tiene suficiente conocimiento disponible para guiar
la conducta mucho antes de lo que reportan. Además, este conocimiento se produce
antes de que emerja la dermoconductivad anticipada (aSCR). La conducta exitosa de
los participantes, según este experimento, estaría basada en el conocimiento que
adquieren los participantes y no requiere explicaciones que dependan de la actividad
autonómica inconsciente.
Una de las limitaciones de la investigación de Maia y McClelland es que no midió la
dermoconductividad ni incluyó participantes con lesiones cerebrales. Ferinie y
Tunnney (2013) incorporan esta medición usando un cuestionario computarizado. A
diferencia de Bechara y Maia no encuentran que la mayoría alcance un conocimiento
conceptual. Alrededor de los 40 ensayos, muchos participantes tienen conocimiento
suficiente para guiar su conducta ventajosa. No encuentran dermoconductividad
anticipatoria en el período anterior a la adquisición del conocimiento (Reimann y
Bechara 2010). Las preguntas usadas por Maia y McClelland (2004) son demasiado
precisas e introducen o agregan conocimiento. Usando el método de apuesta de
Persaud y Cowey (2008) se llega a la misma conclusión sin el uso de preguntas y los
participantes empiezan a elegir ventajosamente antes que aumenten las apuestas. No
obstante, reconocen que la actividad periférica inconsciente es la parte más débil de la
teoría principalmente por la imposibilidad de encontrar pacientes que tengan una
completa desconexión entre su cuerpo y cerebro. La única condición que lleva casi a
una completa desconexión es una lesión en segmento dorsal del tallo encefálico pero
tales lesiones llevan a coma o muerte. Hay una mayor actividad fisiológica post
recompensa que distingue entre barajas ventajosas o no durante todo el experimento
pero solamente de aquellos participantes que muestran conocimiento y esto en
períodos posteriores a la obtención del conocimiento.
5. COMENTARIOS FINALES
La cuestión clave de este trabajo fue evaluar la posibilidad de procesos
inconscientes en la toma de decisiones y sus ventajas, atendiendo más
específicamente a uno de los grandes problemas actuales dentro de la investigación
cognitiva, a saber, del problema de marco. Luego de introducir en qué consiste este
particular problema, analizamos el alcance de la hipótesis del marcador somático para
resolverlo y algunas de sus limitaciones.
Por lo expuesto, sostenemos que la hipótesis del marcador somático inconsciente
pese a las críticas, podría no sólo colaborar en la resolución del problema de marco
sino también, y esto es de sumo interés para nuestro trabajo, para defender cierta
autonomía entre el problema de marco y el problema de la conciencia. Por supuesto,
resta evaluar otras hipótesis, como por ejemplo aquellas que cuestionan si entre las
emociones automáticas no consientes y las cognitivas conscientes hay emociones no
cognitivas y conscientes, lo cual nos quedará pendiente en nuestra próxima agenda de
investigación.
6. REFERENCIAS BIBLIOGRÁFICAS
Bechara, Antoine, Damasio, Hanna, Tranel, Daniel, y Damasio, Antonio R. (2005), «The Iowa
Gambling Task and the somatic marker hypothesis: some questions and answers», Trends in
Cognitive Sciences, 9, (4),159-162.
Bechara, Antoine, & Damasio, Antonio R. (2005), «The somatic marker hypothesis: A neural theory
of economic decision», Games and Economic Behavior,52, (2) 336-372.
Crockett, Larry (1994), The Turing Test and the Frame Problem: AI’s Mistaken Understanding of
Intelligence, New Yersey, Ablex Publishing Corporation.
Damasio, Antonio (2004), Descartes’ Error (Emotion, Reason and the Human Brain), New York, G. P.
Putnam’s Sons.
Deise, Erich., (2008), Frame Problems, Fodor’s Challenge, and Practical Reason. College Park:,University
of Maryland.
Dennett, D. (1984),«Cognitive Wheels: The frame problem of AI», en Cristopher Hookway (Ed.),
Minds, machines & evolution, Cambridge, Cambridge University Press, 129-152.
Fodor, Jerry (1986) La modularidad de la mente, Madrid, Morata.
Fernie, Gordon, & Tunney, Richard J. (2013), «Learning on the IGT follows emergence of knowledge
but not differential somatic activity», Frontiers in Psychology, 4. Article ID 687.
Ludwig Kirk y Susan Schneider (2008) «Fodor’s Challenge to the Classical computational Theory of
Mind», Mind and Language, 23, 123-143.
Magistretti, Pierre. J. & Ansermet, François, (2016), «The Island of Drive: Representations, Somatic
States and the Origin of Drive», en S. Weigel y G. Scharbert (Eds.), A Neuro-Psychoanalytical
Dialogue for Bridging Freud and the Neurosciences, Cham, Springer International Publishing, 5-11.
Maia, T. V., & McClelland, J. L. (2004), A reexamination of the evidence for the somatic marker
hypothesis: what participants really know in the Iowa gambling task, Proceedings of the National
Academy of Sciences of the United States of America, 101, 16075-16080.
McCarthy John y Patrick Hayes (1969), «Some Philosophical Problems from the Standpoint of AI»,
Machine Intelligence, 4, 463-502.
Persaud, Navindra, & Cowey, Alan (2008), «Blindsight is unlike normal conscious vision: Evidence
from an exclusion task», Consciousness and Cognition, 17, 1050-1055
Pinker, Steven. (2005) «So How Does The Mind Works?» Mind & Language, 20, 1-24.
Reimann, Martin, & Bechara, Antoine (2010), «The somatic marker framework as a neurological
theory of decision-making: Review, conceptual comparisons, and future neuroeconomics
research», Journal of Economic Psychology, 31, 767-776.
IMPORTANCIA DE LA FILOSOFÍA DE LA CIENCIA PRESENTE EN
LA FORMACIÓN INICIAL
DEL PROFESORADO CHILENO
RESUMEN: Este trabajo está centrado en la formación inicial del profesorado de ciencias, el
análisis debería explicitarse por tanto en la cuestión instrumental y preocuparse del
mejoramiento de la práctica donde se utilizarán algunos de los modelos de la ciencia.
A su vez, es necesario hacerse la siguiente pregunta: ¿ es necesaria la introducción de la
filosofía de la ciencia en el currículo general de ciencias en todos los niveles educativos? Ello ha
sido abordado por varios autores, tales como Mathews, Driver, Leach, Millar, Scott, Duschl,
Izquierdo; ellos plantean que la enseñanza de la filosofía de la ciencia en el aula puede ser
trasladada por analogía a la formación del profesorado.
Se analizará, por tanto, la enseñanza de la filosofía de la ciencia de una manera formal, como
asimismo, se analizará el valor cultural, el valor específico y el valor instrumental de las
ciencias; se analizarán autores y escuelas que se consideren más pertinentes paras la formación
del profesorado, enfatizando a lo sucedido desde inicios del siglo XX en adelante.
Palabras clave: Filosofía de la ciencia; didáctica; formación del profesorado.
1. INTRODUCCIÓN
P ara encontrar la motivación al escribir la presente ponencia, es necesario situar
el contexto enhistóricos
antecedentes el cual ella
con se
respecto
dio: Esaconveniente
la filosofía exponer
y su evolución
una relación
en de
Chile,
especialmente en el sistema escolar y en la filosofía para niños. Esto es importante ya
que, a fines del mes de agosto del año 2016, el Ministerio de Educación propuso
eliminar el ramo de filosofía de la malla curricular de la enseñanza media para
reemplazarlo por una asignatura llamada «Educación Ciudadana», y de la cual
formarían parte las materias del ramo de filosofía; ello, junto a otras materias
relacionadas con la ética y la ciudadanía. La propuesta causó controversia entre el
profesorado y si bien el Ministerio aclaró, posteriormente, que no se trataba de
eliminar el ramo sino que se trataba de una manera de reforzarlo, la situación nunca
quedó del todo clara hasta el día de hoy, pues las explicaciones han sido ambiguas.
En síntesis, el problema se puede definir a partir de la siguiente pregunta: ¿Existe
actualmente alguna disciplina, tanto en la educación primaria como en la secundaria,
que aborde la filosofía de la ciencia, tanto a nivel escolar como universitario,
especialmente en la formación del profesorado?
A partir de lo anterior, el objetivo principal de este trabajo es el análisis general de
la introducción de la filosofía de la ciencia en la formación inicial del profesorado de
ciencias en Chile.
La metodología utilizada es la propia de la filosofía: Analítico-reflexiva. El análisis
se hace a partir de planteamientos de la enseñanza de la filosofía de la ciencia en el
aula y la formación del profesorado.
5. CONCLUSIONES
Al llegar al final de este trabajo se puede colegir que no existe en el sistema escolar
propiamente una disciplina que aborde la filosofía de la ciencia, pero sí que se enseña
filosofía para todos los jóvenes en la enseñanza media e, incluso, en algunos casos,
para niños en la enseñanza básica. Sí, en algunos ramos electivos, se enseña
gnoseología y epistemología, en el contexto de filosofía de la ciencia.
A su vez, en la formación del profesorado en filosofía, sí se enseña filosofía de la
ciencia, no así, en la formación de otros docentes.
Queda abierta esta línea de investigación, tan necesaria en el mundo actual, a fin
de que el ser humano crezca en su ser, comprenda el mundo y la sociedad en que
habita –en términos heideggerianos– y no se transforme en un mero instrumento del
pragmatismo existente y del dominio de la tecnología.
6. REFERENCIAS BIBLIOGRÁFICAS
Bello, Andrés (1881), Filosofía del entendimiento, Obras completas, Vol. I, Santiago de Chile, Biblioteca
Saavedra Fajardo.
Caiceo, Jaime (1987), «Presencia de la filosofía en la historia de Chile», Boletín de Filosofía, N.° 1, Ipes
Blas Cañas, 61-69.
Celis, Luis; Caiceo, Jaime; López, Sara; Sánchez, Elena (1982), «La presencia de la filosofía en la
Universidad Católica, 1888-1973», Anales Escuela de Educación, N.° 5, 1-215.
Rodríguez, Simón (1990), Sociedades Americanas, Caracas, Biblioteca Ayacucho.
Saldivia, Zenobio (2013), «En torno a la enseñanza de la filosofía», Revista Crítica.cl (14-10-2013), 1-5.
Sánchez, Elena; Caiceo, Jaime; Celis, Luis; López, Sara (1992), «Filósofos y educadores. El pensar chileno
en el siglo XX», Santiago de Chile, Facultad de Educación, Pontificia Universidad Católica de
Chile.
Skarica, Mario (1993), «Predeterminación y libertad en Fray Alonso Briceño», Philosophica (16), 57
63.
Torretti, Roberto (2003), «El concepto de probabilidad», Diálogos (81), 1-41.
VV.AA. (Varios autores) (2011), La filosofía. Una escuela de la libertad, París, UNESCO.
LA CONSTRUCCIÓN DE AGENTES COLECTIVOS A TRAVÉS DE
LA DELIBERACIÓN
RESUMEN: Desde hace algún tiempo vengo considerando una alternativa constitutiva o
interna a la tradición perspectivista externa en teoría de la argumentación. Frente a las
perspectivas clásicas (lógica, dialéctica, retórica), sugiero partir de la noción de práctica o
prácticas argumentativas y desarrollar una ontología básica compuesta por la tríada: agentes
argumentativos, argumentaciones y argumentos. En este contexto, la deliberación tiene
singular importancia en calidad de práctica paradigmática en el área socio-institucional del
discurso público que envuelve la construcción de agentes colectivos. En lo que sigue asumiré
una visión normativa de la deliberación pública cuyas condiciones constitutivas y regulativas
dan lugar a la existencia de un colectivo irreducible a los individuos que lo componen. Si la
deliberación discurre con arreglo a esos supuestos y tiene efectivamente éxito, este colectivo
puede obrar en We-mode como un agente deliberativo con intencionalidad e inteligencia
propia, aunque nunca esté garantizado dicho éxito.
Palabras clave: Agente argumentativo; agencia I-mode / agencia We-mode; colectivo
estratégico; colectivo deliberativo; marco socio-institucional de la argumentación.
1.
Entiendo por deliberación un proceder argumentativo de confrontación y
ponderación de propuestas, consideraciones y razones de preferencia o elección no
pre-establecida, dirigido a la resolución de una cuestión práctica. De acuerdo con esta
caracterización, la deliberación como procedimiento comporta ciertos rasgos
sustanciales: (i) un carácter discursivo y dialógico –donde la deliberación interior de
uno consigo mismo es un caso derivado o límite–; (ii) la confrontación de propuestas
alternativas; (iii) la ponderación de razones, motivos y consideraciones al respecto en
la línea –aunque no siempre– de medios y fines; (iv) la disposición de los deliberantes
a adoptar o cambiar sus posiciones en el curso del, y debido al, proceso de interacción
discursiva; (v) el objetivo práctico de tomar una resolución que cierre el debate –
aunque la decisión tomada sea dejar la cuestión abierta o pendiente–. A estos rasgos
genéricos, una deliberación pública, por contraste con la privada o prudencial, añade
los siguientes: (vi) corre a cargo de un colectivo dentro de un marco institucional y
acerca de un asunto de interés común y de dominio público, cuya resolución cae en
principio dentro de sus competencias; (vii) genera y asume compromisos y
responsabilidades no solo conjuntas, i.e. con respecto al objeto de la resolución, sino
mutuas, entre los miembros del colectivo; (viii) tiene un poder normativo, como
fuente de derechos, obligaciones y expectativas, con capacidad de autorregulación,
legitimación y sanción (aprobación o desaprobación) ante la exigencia de dar y rendir
cuentas de las propuestas y resoluciones adoptadas. Hay, en fin, dos condiciones de
éxito de la deliberación: 1/ La disposición a servirse de argumentos y someter los
motivos individuales o particulares al juego de las razones públicas. 2/ La disposición
a someter los intereses y las preferencias previas al curso y desenlace de la
confrontación colectiva. La deliberación pública así caracterizada también descansa
en ciertos supuestos:
2.
Frente a la abundante literatura actual, no entraré en las discusiones en curso
acerca de la deliberación pública y sus implicaciones (e.g. forum vs. market, modelo
impuro vs.puro, deliberación democrática vs. democracia deliberativa…). Tampoco me
detendré en las que discurrren acerca de los pros y contras de su adopción, sea
programática o sea instrumental. Pero avanzaré unas a manera de tesis que me
parecen sustantivas para apreciar su significación dentro de la teoría de la
argumentación. Tesis 1. La deliberación es un paradigma de argumentación práctica
en el área socio-institucional del discurso público. Tesis 2. La deliberación es una
modalidad de agencia colectiva. Corolario: en el ámbito socio-institucional del
discurso público hay agencias colectivas. Tesis 3. La existencia de agencias colectivas
supone la existencia de agentes colectivos; así, el ejercicio de la deliberación implica la
existencia de un grupo deliberativo que cuenta (obra) como un agente discursivo en
un marco institucional dado –entiendo «X cuenta como Y en el contexto C» en el
sentido de Searle)–.
Son tesis progresivamente problemáticas y 3 resulta, en efecto, la más discutible.
En efecto, se opone a dos creencias arraigadas en el terreno de la argumentación
práctica y de la filosofía social. La primera consiste en un supuesto práctico: toda
argumentación práctica descansa en un modelo de motivación BDI (beliefs, desires,
intentions). La segunda consiste en un supuesto ontológico o, al menos, metodológico:
toda atribución o predicado colectivo es reducible o explicable en términos de
individuos. En la medida en que el modelo BDI es individualista, los dos supuestos
pueden casar perfectamente.
3.
Los puntos cardinales para moverse por este terreno son las nociones correlativas
de agente y de agencia colectiva. Por un lado, un agente es alguien o algo «que obra o
tiene capacidad de obrar «(DRAE). Por otro lado, son agencias las diversas modalidades
de obrar entre las que destacan algunas de mayor interés en este contexto. Hay
agencias individuales, plurales y colectivas que pueden clasificarse en dos
modalidades básicas I-mode (individual o plural) / We-mode (colectiva). Es decir:
agencias individuales o plurales de un agente o varios agentes vs. agencia colectiva de
varios que son uno, que cuentan o actúan como un solo agente. En nuestro caso, se
trata de un grupo deliberativo: un conjunto de personas que cuenta (u obra) como un
agente discursivo en un marco institucional determinado.
Aquí la agencia colectiva resulta de la confrontación de opciones y la deliberación
pública por parte del grupo o la comunidad de afectados en orden a la consecución de
un objetivo o una resolución común; así que exige una comunicación e interacción
discursiva entre ellos. Comporta unos compromisos específicamente fuertes: pueden
haber sido asumidos expresamente o no –por ejemplo, cuando se trata de hechos
sociales como el lenguaje materno, o de normas jurídicas o convenciones socio
institucionales–, pero ningún miembro individual se encuentra habilitado o
autorizado a rescindirlos de forma unilateral. He aquí un We-mode de agencia. Dicho
en otros términos, X e Y se proponen hacer colectivamente A si y solo si se
comprometen a hacer A «como un solo agente» («as a body», según la expresión de
Gilbert 1989: 137-8). Un agente colectivo no es un mero agente plural, de modo parejo
a como un compromiso colectivo no es la simple suma o agregación de dos o más
compromisos individuales personales. Los compromisos colectivos contraen dos tipos
de obligaciones: (i) obligaciones conjuntas, como la obligación de no actuar en contra
sino en favor del objetivo común; el paso de la coordinación a la cooperación en tal
sentido; el derecho o la habilitación de los miembros para obrar en consecuencia; el
derecho del grupo a sancionar acciones individuales opuestas; (ii) obligaciones
mutuas, así que, por ejemplo, nadie está autorizado a rescindir o cancelar tales
compromisos unilateralmente.
En suma, la agencia colectiva de un grupo deliberativo exitoso supone
interrelación, coordinación y autorregulación de acciones que comportan
compromisos, expectativas y responsabilidades conjuntas y mutuas, y por ende
fraguan una especie de cemento normativo que ejerce de asiento de legitimidad,
habilitación y, llegado el caso, sanción de las actuaciones de los miembros.
4.
Llegados a este punto, no estará de más detenerse un momento a considerar las
relaciones entre los individuos y los colectivos así entendidos. Para empezar, un
agente colectivo es irreducible a una colección o agregado de individuos (personas
físicas o programas informáticos), pero los supone. Así pues, unos individuos no
pueden constituirse en agente colectivo a menos que haya unas reglas y unas
prácticas constituyentes; y un agente colectivo no puede actuar u obrar a menos que
haya individuos que realicen las acciones básicas pertinentes de acuerdo con las reglas
y prácticas constitutivas. Pero, en todo caso, una agencia o un agente colectivo tiene
atributos irreducibles a los individuales, e.g. determinadas capacidades, derechos,
obligaciones, responsabilidades, y en este contexto los sujetos pasan a actuar no como
individuos sino como miembros del grupo, aunque sin perder por ello su personalidad
propia. Una virtud característica de la deliberación pública consiste justamente en
convertir a los individuos que debaten acerca de una resolución en miembros
efectivos de un colectivo y, más aún, en convertir a los individuos afectados por el
problema común en agentes involucrados en su resolución efectiva.
Otros puntos de interés de las relaciones entre agentes individuales y colectivos
son los dos siguientes. Uno tiene que ver con una cuestión teórica, cabría decir incluso
ontológica: ¿hay algo así como una intencionalidad y una inteligencia no solo
individuales sino colectivas? Creo que sí: a algunos filósofos, demasiado apegados al
individualismo metodológico, les cuesta admitirlo; pero en este punto deberían
escuchar a los juristas cuando hablan de personas jurídicas –aunque la constitución
legal y estatutaria de las personas jurídicas difiera de la propia, social y entretejida, de
los colectivos deliberativos–. En el presente caso, la intencionalidad colectiva
envuelve responsabilidades y compromisos mutuos y conjuntos sobre la base no solo
de las acciones e intenciones de los individuos sino de las interacciones de estos
individuos que obran como miembros del grupo. A su vez, la inteligencia colectiva es
la capacidad conjunta de hallar una respuesta adecuada a un nuevo reto, reconocer
este patrón de éxito y aplicarlo a otros varios casos conocidos o inéditos.
Sobre esta base podemos abordar el otro punto interesante: ¿se puede comparar el
rendimiento de los agentes individuales y de los colectivos? No solo se puede, en
realidad se ha hecho. Entendamos aquí por rendimiento la tasa de aciertos sea en
estimaciones teóricas –con relación a la verdad, la falsedad o la plausibilidad de las
proposiciones en juego–, o sea en estimaciones prácticas –acerca de la viabilidad, la
conveniencia o la efectividad de una propuesta–. Así podremos distinguir entre el
rendimiento individual (la tasa de aciertos de cada individuo), el rendimiento individual
promedio (la tasa media de acierto de los componentes del grupo), el rendimiento
individual máximo (la tasa del mejor dispuesto y más inteligente) y el rendimiento
colectivo (los aciertos de las resoluciones del grupo en su conjunto). Pues bien, hoy
sabemos que, en ciertos supuestos y según el teorema del jurado de Condorcet, si la
tasa individual supera un porcentaje del 50% de aciertos, el rendimiento colectivo es
superior al individual máximo y lo será tanto más cuanto más alta sea, hasta tender al
pleno acierto. También sabemos que la inteligencia colectiva resulta superior al
individual promedio y a la máxima en la medida en que tiene mayor poder predictivo
debido al llamado factor c, un factor complejo que incluye: 1/ sensibilidad y
percepción social, digamos «leer en la cara»; 2/ distribución paritaria de las
intervenciones; 3/ alto porcentaje de mujeres o miembros que muestren una actitud
más cooperativa que competitiva (vid. Williams et al. 2010). Se trata de una vieja
intuición que ya había avanzado Aristóteles en la Política: un grupo puede resultar más
capaz y más fiable que su miembro más capacitado (vid. 1282a 18-24,1286a 24-40).
5.
Ahora bien, en el mundo de la interacción discursiva no cabe la felicidad completa.
Y, en la práctica, los agentes colectivos no son inmunes a las estrategias falaces más o
menos ordinarias, por ejemplo a las técnicas habituales de presión o manipulación, ni
se hallan inmunizados contra errores y fallos específicos de procedimiento.
Por lo que se refiere a las estrategias falaces y al margen de las habituales en la
publicidad religiosa, comercial o política, recordemos los supuestos de la deliberación
considerados al principio. Estos supuestos ayudan a entender el papel peculiar de las
falacias en la deliberación pública. Aquí no importan tanto las eventuales falacias, que
pueden producirse en cualquier tipo de discurso, como las estrategias falaces, es decir
las estrategias que conducen a deliberaciones fallidas o a deliberaciones defectuosas,
viciadas o ilegítimas. Las deliberaciones fallidas obedecen por lo regular a estrategias
que contravienen de modo culpable o doloso los supuestos constitutivos. Las
defectuosas, viciadas o ilegítimas se deben, a su vez, a estrategias dirigidas a minar o
ignorar las directrices regulativas. Pero también merecen particular atención los
errores y fallos que suelen destacarse en este este contexto. Hoy han cobrado especial
relieve tres tipos, a saber, los provocados por:
a/ Sesgos de confirmación y anclaje, e.g. groupthink / polarizaciones.
b/Efectos de cascada y seguimiento.
c/ Predominio de la información compartida y pérdida de la inhibida o silenciada.
Según Sunstein y Hastie (2015) que tratan de superar los defectos de los grupos
estratégicos «bien-pensantes», el problema estriba en formar y liderar grupos más
inteligentes y eficaces, dentro del marco de un cálculo de costes y beneficios
individuales o privativos. Pero creo que hay otra alternativa más global e interesante:
consiste en proponer, frente a su idea de la formación de grupos estratégicos para la
toma de decisiones, la formación de agentes colectivos deliberativos que obren en We
mode.
6.
Recordemos la agencia We-mode de un grupo deliberativo frente a las agencias I
mode, individual o plural, de los grupos estratégicos. Para empezar, hoy sabemos que
la consideración no solo de votos y opiniones sino de razones puede mejorar recursos
estadísticos como el método Delphi y más aún reforzar la sensibilidad social integrada
en el factor antes considerado de inteligencia colectiva. Así pues, en principio, puede
contribuir al rendimiento de los grupos estratégicos. Pero además un colectivo
deliberativo puede tener no solo un rendimiento externo como el de un grupo
estratégico, es decir una estimable tasa de aciertos, sino un rendimiento interno,
como el representado por el respeto mutuo y por la satisfacción y el compromiso de
sus miembros. Aparte de estas posibles ventajas de los colectivos deliberativos frente
a los grupos o equipos estratégicos, los agentes deliberativos cuentan con otros
méritos o virtudes propias. Me limitaré a mencionar dos derivadas de su misma
dinámica deliberativa: (i) la capacidad de autorregulación de la interacción discursiva,
esto es, de reconocimiento y sanción de las intervenciones que van marcando el curso
de la deliberación, y (ii) la formación endógena de razones públicas, es decir:
consideraciones o alegaciones que pueden fungir como razones para el común de los
miembros de la comunidad de referencia. De estas virtudes de los grupos deliberativos
se desprenden unas proyecciones socio-éticas, socio-políticas y argumentativas que
trascienden la eficacia de los grupos estratégicos, como estas tres: (α) el desarrollo y
mejora de la intencionalidad y la inteligencia colectivas; (β) el desarrollo y mejora de
la interacción y la cooperación que favorece el rendimiento externo del grupo; (γ) el
desarrollo y mejora del reconocimiento y respeto mutuo de los miembros del grupo
que determina su rendimiento interno.
Pero, claro está, de ahí no se sigue que los grupos deliberativos sean la panacea
universal de la agencia discursiva en la esfera pública, pues no dejan de acusar
problemas específicos, e.g. de inclusión/exclusión o de idealización argumentativa.
Por otra parte, es obvio que no cabe deliberar sobre cualquier asunto, ni siempre se
debe deliberar, ni siempre se puede –sin ir más lejos, en razón de las limitaciones de
nuestra bounded rationality–.
Ahora bien, en todo caso, a deliberar se aprende deliberando: la capacidad
deliberativa es una competencia aprendida y emergente del grupo deliberativo. En
consecuencia, aunque las ocasiones de emprender y culminar con éxito una
deliberación colectiva sean más bien inciertas y escasas, no perdamos, llegado el caso,
la oportunidad de practicarla. Ánimo, pues.
REFERENCIAS BIBLIOGRÁFICAS
Gilbert, Margaret (1989), On social facts, New York/London, Routledge.
Searle, John R. (2010), Creando el mundo social, México, Paidós, 2014.
Sunstein, Cass R. & Hastie, Reid (2015), Wiser. Getting beyond groupthink to make groups smarter,
Boston (MA), Harvard Business Review Press.
Williams Wolley, Anita, Chabris, Christopher F., Pentland, Alex, Hashmi, Nada, Malone, Thomas W.
(2010), «Evidence for a collective intelligence factor in the performance of human groups»,
Science, 330, 686-688.
EXPERIMENTACIÓN, CAMBIO CONCEPTUAL
Y NEUROCIENCIAS VISUALES
1. INTRODUCCIÓN
En el trabajo se aborda el problema del cambio conceptual en las neurociencias
visuales. Si bien se trata de un campo joven, como lo es en general la investigación
neurocientífica, las neurociencias de la visión constituyen uno de los sectores más
maduros de las neurociencias y en este sentido tomarlas como modelo para
reflexionar sobre la investigación en áreas más incipientes puede ser fructífero desde
una perspectiva filosófica. Aquí exploro esta problemática haciéndome eco de algunas
propuestas en filosofía de la biología (Love 2008; Brigandt 2010, 2012), evaluando su
aplicabilidad para el campo de interés, y analizando luego un caso concreto en la
historia de las neurociencias de la visión: el concepto de campo receptivo, en
particular su tratamiento dentro de la línea experimental liderada por David Hubel y
Torsten Wiesel durante los años 60, en la llamada escuela de Harvard.
A través del análisis de las principales fuentes de su evolución conceptual (a partir
de Ringach 2004; Chirimuuta y Gold 2009; Spillmann 2014 y Spillmann et al. 2015), y
concentrándome en el trabajo experimental llevado adelante por Hubel y Wiesel, se
defiende que la principal contribución del concepto de campo receptivo fue el de
apuntalar una agenda de trabajo para un campo disciplinar en auge; concentrarse
sobre este particular objetivo epistémico y cómo fue cumplido por el concepto
permitiría dar cuenta de los virajes que fue sufriendo posteriormente a su versión más
madura, alcanzada en la escuela de Harvard. en la historia reciente de las
neurociencias visuales. Se mantiene que son esas modificaciones las que dan cuenta
de cómo, durante los últimos veinte años, este concepto se ha desdibujado y ha ido
perdiendo relevancia en la investigación neurocientífica. El presente ejemplifica un
tipo de abordaje del cambio conceptual vinculado a las prácticas experimentales y
potencialmente muy rico para el estudio de la historia reciente de las neurociencias.
5. CONCLUSIÓN
En el trabajo se ha mostrado cómo algunos conceptos científicos centrales
encarnan una agenda de trabajo que estructura campo disciplinares, especialmente
jóvenes. El concepto de campo receptivo, como concepto central detrás de los
principales virajes en las neurociencias visuales del siglo XX, constituye un caso
destacado de esto en las neurociencias. Se ha intentado mostrar no solo la riqueza del
concepto desde una perspectiva filosófica sino especialmente como un prisma
privilegiado desde donde mirar la dinámica teórica en la historia de las neurociencias
visuales. En particular, se ha defendido que la principal contribución temprana del
concepto de campo receptivo fue fijar una agenda de trabajo para el campo, en el
sentido definido por Love y Brigandt: el trabajo de la escuela de Harvard, y dentro de
ella especialmente la contribución de Hubel y Wiesel, es el ejemplo más claro y exitoso
de cómo el concepto planteó una agenda en el sentido de estructurar y guiar la
investigación experimental, contribuyendo además a la integración entre disciplinas o
campos científicos diferentes. A la vez, puede aquí solo aventurarse que hoy la
centralidad del concepto decae en la medida en que fue abandonándose la agenda de
trabajo asociada, con nuevas preguntas, viabilizadas por nuevos medios
experimentales.
6. REFERENCIAS BIBLIOGRÁFICAS
Arabatzis, Theodore (2012), «Experimentation and the meaning of scientific concepts», en Uljana
Feest y Friedrich Steinle (eds.) Scientific Concepts and Investigative Practice. Berlín, de Gruyter,
149-166.
Bair, Wyeth (2005), «Visual receptive field organization», Current Opinion in Neurobiology (15), 459
464.
Brigandt, Ingo (2010), «The epistemic goal of a concept: Accounting for the rationality of semantic
change and variation», Synthese (177), 19-40.
Brigandt, Ingo (2012), «The dynamics of scientific concepts: The relevance of epistemic aims and
values», en Uljana Feest y Friedrich Steinle (eds.) Scientific Concepts and Investigative Practice.
Berlín, de Gruyter, 75-103.
Brigandt, Ingo, Love, Alan (2010), «Evolutionary novelty and the evo-devo synthesis: Field notes»,
Biology and Philosophy (37), 93-99.
Chirimuuta, Mazviita, Gold, Ian (2009), «The embedded neuron, the enactive field?», en John Bickle
(ed.) The Oxford Handbook of Philosophy and Neuroscience. Oxford, Oxford University Press, 200
226.
Fairhall, Adrienne (2014), «The receptive field is dead. Long live the receptive field?», Current
Opinion in Neurobiology (25), ix-xii.
Hubel, David, Wiesel, Torsten (1959), «Receptive fields of single neurons in the cat’s striate cortex»,
Journal of Physiology (148), 574-591.
Hubel, David, Wiesel, Torsten (1962), «Receptive fields, binocular interaction and functional
architecture in the cat’s visual cortex», Journal of Physiology (160), 106-154.
Hubel, David, Wiesel, Torsten (1968), «Receptive fields and functional architecture of monkey
striate cortex», Journal of Physiology (195), 215-243.
Love, Alan (2008), «Explaining evolutionary innovations and novelties: Criteria of explanatory
adequacy and epistemological prerequisites», Philosophy of Science (75), 874-886.
Olshausen, Bruno (2014), «Perception as an inference problem», en Michael Gazzaniga y George
Mangun (eds.) The Cognitive Neurosciences V. Cambridge (Ma.), The MIT Press, 295-304.
Peschard, Isabelle, van Fraassen, Bas (2014), «Making the abstract concrete: The role of norms and
values in experimental modeling», Studies in History and Philosophy of Science (46), 3-10.
Ringach, Dario (2004), «Mapping receptive fields in primary visual cortex», Journal of Physiology
(558), 717-728.
Spillmann, Lothar (2014), «Receptive fields of visual neurons: The early years», Perception (43),
1145-1176.
Spillmann, Lothar, Dresp-Langley, Birgitta, Tseng, Chia-huei (2015), «Beyond the classical receptive
field: The effect of contextual stimuli», Journal of Vision (15), 1-23.
Sullivan, Jaqueline (2016), «Construct stabilization and the unity of the mind-brain sciences»,
Philosophy of Science (83), 662-673.
Yuste, Rafael (2015), «From the neuron doctrine to neural networks», Nature Reviews Neuroscience
(16), 487-497.
UNDIÁLOGO SOBRE EL INNATISMO EN LOS CONCEPTOS A
PARTIR DE JERRY A. FODOR
1. PRESENTACIÓN
L a filosofía siempre ha trabajado mediante las llamadas ideas, más tarde
concretadas en los llamados conceptos. No obstante, no solo los filósofos
utilizan el término «ideas» o «conceptos». En concreto, la filosofía ya sea más
seria o más cotidiana utiliza los conceptos o ideas en su metodología para pensar,
conocer y actuar. El ser humano para interaccionar y representarse la realidad se hace
una idea, imagen o concepto de la realidad. En adelante, se entenderá la palabra
concepto como constituyente de los pensamientos y en relación con la percepción. Es
decir, se trata de un objeto mental o representación mental que se refiere al objeto; es
decir, un tipo de intencionalidad en continuidad con la percepción. Como Putnam cita
a James en su libro «Ética sin ontología»:
La sensación y la idea aperceptiva están fusionadas [en el «objeto material presentado y
reconocido»] que no puede decirse dónde empieza una y termina la otra, como en estos
ingeniosos panoramas circulares que se han exhibido recientemente, donde se mezclan el
lienzo pintado del fondo y el primer plano real (2013, 152).
Así que, se entenderá al concepto como en la filosofía moderna se entiende el
vocablo «idea» y entendiendo a ésta como representación mental que es su sentido
contemporáneo.
El segundo punto importante después de dar cierto sentido y utilidad al término
idea es cómo se conoce a los dichos conceptos. Hay dos posturas clásicas en filosofía:
el racionalismo y el empirismo. Para abreviar, los conceptos se conocen o bien de
forma innata o los conceptos se adquieren por aprendizaje mediante la abstracción
aplicada a la experiencia. No obstante, no debe entenderse innatismo como falta de
aprendizaje o más bien falta de requerimiento de interacción con la realidad. Y es en
este punto donde reside la fuerza de la tesis innatista, para comprender este punto
podría recurrirse a la reflexión del profesor de física Douglas R. Hofstadter sobre la
interpretación del ADN –a la vez, metáfora sobre la significación–
Se podría pensar que ambas son simplemente formas de expresar la misma cosa, pero no es
del todo así. Una de las perspectivas sostiene que el ADN carece por completo de
significación, fuera de su contexto; la otra sostiene que, aun considerada fuera de contexto,
una molécula de ADN perteneciente a un ser vivo tiene en su estructura tal lógica interior
compulsiva, que su mensaje debe poderse deducir, de una manera u otra. Para formularlo del
modo más sucinto posible: un punto de vista afirma que es necesario el contexto químico
para que el ADN adquiere significación; el otro afirma que únicamente se necesita
inteligencia para revelar la «significación intrínseca» de una cadena de ADN (2015, 179).
Este fragmento de libro de Hofstadter muestra la tensión existente entre una
inteligencia que descubre o construye el significado con independencia de un
contexto dado. No obstante, se añade que el aprendizaje más común de la inteligencia
necesita de la comunicación. Además, de sacar inquietantes consecuencias de ambas;
también muestra la complejidad de la significación, tarea conjunta de la mente y el
lenguaje. El concepto es la entidad que reside supuestamente en la mente que
mediante el lenguaje se puede llegar a comunicar a otras personas.
La filosofía de la mente busca la forma como el lenguaje conjuntamente con la
mente puede llegar significar. El pensamiento y lenguaje están relacionados de alguna
manera y el filósofo americano Jerry Fodor ha hecho una teoría basándose en la teoría
lingüística de Chomsky y como consecuencia de esta teoría defiende que los conceptos
no son aprendidos, sino que más bien son innatos. Esto es uno de los resultados de que
el pensamiento sea un lenguaje inicial (Goodman 1973, 73-74)[1] que posee la mente. A
partir de la teoría lingüística de Chomsky, se defiende el innatismo en la capacidad del
lenguaje.
5. REFERENCIAS BIBLIOGRÁFICAS
Berna, Fabrice, Potheegadoo, Jevita, Aoudi, Ismail, Ricarte, Jorge Javier, Allé, Mélissa C., Coutelle,
Romain, Boyer, Laurent, Cuervo-Lombard, Christine Vanessa, & Danion, Jean-Marie (2016), «A
Meta-Analysis of Autobiographical Memory Studies in Schizophrenia Spectrum Disorder»,
Schizophrenia Bulletin 42 (1), 56-66.
Chomsky, Noam (1973), «Contribuciones recientes a la teoría de la ideas innatas», Teorema Revista
Internacional de Filosofía 3 (1), 43-55.
Fodor, Jerry A. (1984), El lenguaje del pensamiento, 1.ª edición, Madrid, Alianza Editorial, 1.
Hofstadter, Douglas R. (2015), Gödel, Escher, Bach: Un Eterno y Grácil Bucle, 1.ª edición, Barcelona,
Booket, 1.
Goodman, Nelson (1973), «El argumento epistemològico», Teorema Revista Internacional de Filosofía 3
(1), 71-78.
James, Williams (2011), El significado de la verdad, 1.ª edición, Madrid, Margot, 1.
González, Guillermo Lorenzo (2001), Comprender a Chomsky. Introducción y comentarios a la filosofía
chomskyana sobre el lenguaje y la mente, 1.ª edición, Madrid, Antonio Machado Libros, 1.
Putnam, Hilary (1973), «La «Hipótesis de lo Innato» y los modelos explicativos en la lingüística»,
Teorema Revista Internacional de Filosofía 3 (1), 57-70.
Putnam, Hilary (2013), Ética sin ontología, 1.ª edición, Barcelona, Ediciones Alpha Decay, 1.
Radanovic, Marcia, de Sousa, Rafael T., Valiengo, Leandro L., Gattaz, Wagner Farid, & Forlenza,
Orestes Vicente (2013), «Formal Thought Disorder and language impairment in schizophrenia»,
Arq. Neuro-Psiquiatr. [online] 71 (1), 55-60.
[1] Para una leve confrontación de la visión de Fodor –que el lenguaje inicial no es un lenguaje del
pensamiento– se puede observar la perspectiva de Nelson Goodman en este artículo. Una argumentación
más fuerte se encuentra en «La “Hipótesis de lo Innato” y los modelos explicativos en la lingüística» de
Hilary Putnam traducido al español en la misma publicación del articulo de Goodman.
[2] Para una crítica más elaborada y específica contra los argumentos sobre la capacidad innata del
lenguaje de Chomsky se puede consultar el artículo «La “Hipótesis de lo Innato” y los modelos explicativos
en la lingüística» del pragmatista Hilary Putnam.
III. FILOSOFÍA GENERAL
DE LA CIENCIA
EXISTENCIA Y VERDAD TENSELESS
RESUMEN: Existen dos imágenes del tiempo: un tiempo tensed, que clasifica a los sucesos en
pasados, presentes y futuros; y un tiempo tenseless, en el que son suficientes las relaciones de
anterioridad y simultaneidad entre sucesos. Aunque los utilizamos indistintamente en el
lenguaje ordinario, se trata de dos concepciones ontológicas muy distintas que confieren
significados muy diferentes a conceptos tan fundamentales como los de existencia, verdad o
indeterminismo. Sin embargo, no son puntos de vista incomparables, porque el tiempo tenseless
se muestra más básico, coincide con el tipo de tiempo que se utiliza en el lenguaje de la ciencia
y es más simple conceptualmente sin perder por ello capacidad explicativa.
Palabras clave: tiempo tensed; tiempo tenseless; presentismo; determinismo.
INTRODUCCIÓN
criterios
discusiones
omo ocurre
queen
recurriendo
deberían
distintasorientar
ramas
a de la filosofía, en ontología no cabe dirimir las
C
1.
pruebas experimentales. Pero existen ciertos
nuestras preferencias. Parece sensato pedir a
una determinada concepción ontológica que muestre coherencia interna y una cierta
sintonía con el resto del conocimiento de su época, especialmente con el conocimiento
científico. Y es importante exigirle además simplicidad, una ockhamiana sobriedad
conceptual que evite postular entidades, propiedades y relaciones que no se
demuestren indispensables. Este desiderátum es ajeno al discutible lema de que la
simplicidad es síntoma de verdad y obedece tan solo a motivos entre metodológicos y
estéticos: metodológicos porque las explicaciones sencillas son más eficaces que las
complicadas (es un mérito explicar lo mismo con menos recursos), y estéticos porque,
al igual que en el valor artístico de un edificio es fundamental la armonía entre los
elementos ornamentales y los funcionales, en ontología una desproporción entre sus
objetivos explicativos y sus recursos conceptuales le resta elegancia teórica.
Estos criterios son particularmente importantes en las discusiones filosóficas
acerca de la naturaleza del tiempo. En cuanto a la vieja discusión entre las
concepciones sustancial y relacional del tiempo tal vez el tema de mayor
trascendencia en la célebre correspondencia entre Leibniz y Clarke, sigue sin haber
una prueba determinante de cuál de ellas es más acorde con la física actual, pero no
cabe duda de que la perspectiva relacional ha venido ganando adeptos
progresivamente debido a su mayor simplicidad: no hay motivo para postular un
tiempo como sustancia indetectable cuando las relaciones temporales entre sucesos
reales tienen la misma capacidad explicativa En lo que sigue trataré de algunos
aspectos de la discusión acerca de otras dos concepciones distintas del tiempo: la
concepción tensed y la tenseless, pretendiendo mostrar que esta segunda es preferible
por el tipo de criterios mencionados.
4. CONCLUSIÓN
Las concepciones tensed y tenseless del tiempo, las series Ay B de McTaggart, son
puntos de vista distintos pero compatibles en el lenguaje cotidiano, donde los
deícticos temporales aportan una enorme utilidad comunicativa. Sin embargo,
responden a posiciones incompatibles ontológicamente, en las que adquieren
significados muy diferentes conceptos tan fundamentales como los de existencia,
verdad o indeterminismo. Lo cual no quiere decir que se trate de concepciones
incomparables, porque el tiempo tenseless se muestra más básico (ha servido para
definir con precisión el tiempo tensed), más útil en el lenguaje de la ciencia, y mucho
más simple en cuanto a las entidades, propiedades y relaciones que postula, sin perder
por ello capacidad explicativa.
REFERENCIAS BIBLIOGRÁFICAS
Aristóteles (1977), Peri Hermeneias. Traducción de Alfonso García y Julián Velarde. Valencia, Revista
Teorema.
Borges, Jorge L. (1949), Obras completas, I, Barcelona, RBA, 2005.
Markosian, Ned (2016), «Time», The Stanford Encyclopedia of Philosophy (Fall 2016 Edition), Edward N.
Zalta (ed.), URL = <https://plato.stanford.edu/archives/fall2016/entries/time/>.
McTaggart, John E. (1908), «The Unreality of Time», Mind (17), 457-73; reprinted in Robin Le
Poidevin and Murray McBeath (eds.), The Philosophy of Time, Oxford, Oxford University Press,
1993, 23-34.
Mozersky, M. Joshua (2011), «Presentism» en Craig Callender (ed.) The Oxford Handbook of Philosphy
of Time, Oxford, Oxford University Press, 122-144.
Savitt, Steven (2017), «Being and Becoming in Modern Physics», The Stanford Encyclopedia of
Philosophy (Fall 2017 Edition), Edward N. Zalta (ed.), URL =
https://plato.stanford.edu/archives/fall2017/entries/spacetime-bebecome/
[1] Ese universo-bloque nos recuerda inevitablemente al Aleph de Borges. Pero curiosamente este relato
se inicia con una cita del Leviathan de Hobbes donde se dice que la eternidad como paralización del tiempo
presente, el nuncstand, es tan algo absurdo como lo sería el hicstand, es decir, la ilimitada extensión del lugar
que llamamos aquí (Borges 1949, 617-627).
EFECTIVIDAD, COMPUTACIÓN Y MÁQUINAS
1. INTRODUCCIÓN
Robin Gandy daba cuenta de la convergencia de ideas que en 1936 dio lugar a la
caracterización de lo efectivo por parte de Turing para resolver (negativamente) el
Entscheidungsproblem planteado por Hilbert (es decir, la existencia de una máquina que
pudiera determinar mecánicamente si una fórmula era o no un teorema aritmético).
Esta convergencia tenía al menos dos grandes corrientes, la de la lógica matemática y
la de los mecanismos (ambas encontraron un punto de confluencia previo importante
en Leibniz).
En concreto, la hipótesis que desarrollamos aquí, es la necesidad de considerar por
separado dos conceptos diferentes, que se aplican en dominios diferentes, y cuya
intersección da lugar a la idea de computación efectiva y a la tesis de Church-Turing.
Por un lado, la idea de efectividad que parece, en principio, asentarse en la de
mecanismo. Por otro, una idea relacional de «computación» –programabilidad–. Es
decir, desde esta perspectiva «computar» estará dado por una instancia relacional que
puede tomar distintas formas. Así por ejemplo, estarían las relaciones entre
codificaciones de comportamientos y los comportamientos mismos, entre programas
como scripts –descripciones– y programas como procesos. Dichas relaciones pueden
estar asociadas a funciones sub-recursivas, recursivas o super-recursivas (Burgin
2005), siendo la uniformidad de estas relaciones algo a considerar.
Esta manera de considerar la computación supone una consecuencia
habitualmente aceptada, que hay procedimientos que tienen la estructura relacional
de la computación pero que van más allá de lo computable –hiper-computación– y una
consecuencia hasta cierto punto controversial, que podría haber efectividad más allá
de los procedimientos relacionales computables. Una manera de plantear esta
cuestión es sugerir que hay una noción intuitiva de efectividad asociada las máquinas
–con su estructura funcional– y una noción de efectividad asociada con
procedimientos – en la tradición del cálculo. Es la intersección de ambas nociones
intuitivas la que parece explotar Turing.
Parcialmente conocidas por Turing, nos encontrábamos en esa época con dos
tradiciones respecto de la concepción de la máquina como objeto de análisis, cuya
existencia puede estudiarse en sí misma, sin reducirla a los propósitos humanos. Por
un lado, podemos encontrar las que están basadas en una teoría de la acción técnica,
por el otro, la que están basadas en una teoría de los mecanismos objetivos, los que
poseen una fundamentación matemática propia.
En cierto sentido, puede inscribirse a Turing en ambas tradiciones, quizá
principalmente en la primera aunque su trabajo fue fundamental para producir un
enorme avance en la segunda, sobre todo a partir de otro trabajo de Gandy de los 80
del siglo pasado (Gandy 1980). Pese a la indudable relevancia, el mecanicismo de
Turing-Gandy no ha tenido aún un impacto importante en filosofía de la técnica, con
la posible excepción de Triclot (2008).
2. DOS TRADICIONES
Es posible dar cuenta de dos tradiciones que se distinguen entre sí en cuanto a la
concepción de la máquina como objeto de estudio real, cuya existencia puede
estudiarse en sí misma, sin relación a los propósitos humanos. Por un lado, podemos
encontrar las que están basadas en una teoría de la acción técnica, por el otro, la que
están basadas en una teoría de los mecanismos objetivos, los que poseen una
fundamentación matemática propia.
La primera de estas tradiciones, la de la acción, surge con fuerza en el siglo XIX. En
1809, el matemático y físico alemán, Johann Heinrich Moritz Poppe publicó su Tratado
de tecnología general en el que postulaba cinco acciones técnicas elementales
presentes en todos los procesos técnicos existentes: separar y triturar, disminuir la
unidad interna, ligar y unir, consolidar, configurar (Dussel 1984,186). Los medios
técnicos a través de los que se ejecutan estas acciones en los procesos técnicos
particulares son contingentes y contextuales. En algunos caso pueden ser naturales
(animales o humanos), en otros artesanales (instrumentos, herramientas, etc.), en
otros casos son industriales (máquinas). Según este enfoque, el objeto de estudio de la
Tecnología General debe ser el conjunto de acciones constitutivas de la ratio technica.
Una vez determinadas esas acciones es posible deducir el resto de las acciones
llevadas a cabo en los procesos técnicos particulares, es decir, los múltiples modos de
efectuación particular según el contexto, los medios técnicos y el producto específico.
La obra de Poppe tuvo una influencia determinante en Marx que leyó casi toda su obra
(Dussel 1984, 125-126). Esta impronta puede observarse en la definición realista de
tecnología que Marx expone en El Capital (Yoshida 1983), en donde se le atribuye a
esta «modernísima ciencia» la tarea de «disolver en sí y para sí» los procesos
productivos a partir del descubrimiento de las «formas fundamentales del
movimiento».
Por otro lado, el enfoque realista admite también una teoría de los objetos
artificiales. Marx atribuía a la mecánica clásica la tarea de identificar la «reiteración
constante de las potencias mecánicas simples» (Marx 2013, 592-593) en medio de la
inconstante configuración de la maquinaria que se altera según variables humanas,
tanto específicas (biológica, anatómica, psicológica, etc.), como sociales (productiva,
económica, ideológica, etc.). Esa invariancia está fundada en leyes naturales, tal es el
caso de determinados mecanismos como la palanca y el volante, que fueron
desarrollados a base de las «leyes de la fricción» (Marx 2013, 458) y han formado parte
de diversas máquinas, en diferentes contextos de uso, e incluso en diferentes épocas
históricas y modalidades de producción. Este giro decimonónico es la base de la
ingeniería mecánica moderna. Un ejemplo paradigmático fue el de Robert Willis quien
en su tratado Principles of Mechanism publicado en 1841 postuló la existencia de un
número limitado de mecanismos que pueden ser encontrados en todas las máquinas y
los llamó «mecanismos puros». Esta ontología apriorística llevó a Willis a sugerir una
nueva epistemología de las máquinas en la que «no parece haber razón para que la
construcción de una máquina con un fin determinado no deba (…) ser reducida al
dominio del matemático» (Moon 2003, 214). Tal juicio fue profundizado por Franz
Reuleaux, quien en su Theoretische Kinematik de 1875 elaboró una serie de fundamentos
matemáticos y topológicos a los «mecanismos puros» de Willis que intentaban
mostrar cómo una máquina puede ser diseñada a partir de un conjunto finito de
objetos artificiales mecánicamente fundamentales. Si bien «la máquina» responde a
propósitos subjetivos, individuales o sociales, los objetos artificiales básicos, los
«mecanismos puros», son construcciones que reflejan principios geométricos. El
proyecto de una Tecnología General toma aquí la forma de una Cinemática
[Kinematic], o «Ciencia de los Mecanismos Puros», cuyo método es el mecanicismo
cartesiano –en concordancia con la importancia otorgada a la geometría– y se basa en
la descomposición de las máquinas complejas en mecanismos «claros y distintos», del
mismo modo que el diseño de máquinas se reduce en la combinación de esos
mecanismos.
4. REFERENCIAS
Bunge, Mario (2004), «Acción», en Carl Mitcham y Robert Mackey (eds.), Filosofía y Tecnología.
Madrid, Encuentro, 63-92.
Burgin, Mark (2005), Super-recursive algorithms, Monographs in computer science, Springer
Copeland, Jack (2015), «The Church-Turing Thesis», en Edward N. Zalta, editor, The Stanford
Encyclopedia of Philosophy, Metaphysics Research Lab, Stanford University, summer 2015 edition.
Copeland, Jack; Sylvan, Richard (1999), «Beyond the Universal Turing Machine», Australasian Journal
of Philosophy, 77(1), 46-66
Dussel, Enrique (1984), Filosofía de la producción, Bogotá, Nueva América
Kennedy, Juliette (ed.), (2014), Interpreting Gödel: Critical Essays. Cambridge, Cambridge University
Press.
Marx, Karl (2013), El capital. Siglo XXI, Buenos Aires, Tomo I, Vol.2.
Moon, Francis (2003), «Robert Willis and Franz Reuleaux: Pioneers in the Theory of Machines»,
Notes and Records of the Royal Society of London, 57 (2), 209-230.
Reuleaux, Franz (1875), Theoretische Kinematik: Grundziige einer Theorie des Maschinenwesens,
Braunschweig: Verlag Vieweg & Sohn. [Traducida al inglés como Kinematics of machinery:
outlines of a theory ofmachines (1876) London: Macmillan and Co.]
Triclot, Mathieu (2008), Le moment cybernetique, Champs Vallon, Seyssel.
Willis, Robert (1841, 2nd edn 1870), Principles ofmechanism, London, Cambridge University Press.
Yoshida, Fumikazu (1983), «Robert Willis’ theory of Mechanism and Karl Marx», Historia
Scientiarum, 25,87-91
Yoshida, Fumikazu. (1983), J.H.M. «Poppe’s “History of Technology” and Karl Marx», Hokudai
Economic Papers, 13, 23-38
LA ESTRUCTURA DE LAS REVOLUCIONES KUHNIANAS
Figura 1.
Figura 2.
REFERENCIAS BIBLIOGRÁFICAS
Balzer, W., Moulines, C.U., Sneed, J.D. (1987), An Architectonic for Science. The Structuralist Program,
Dordrecht, Reidel.
Bickle, J. (1998), Psychoneural Reduction, The New Wave, Cambridge, Massachusetts, MIT Press.
Caamaño Alegre, M. (2009), «A Structural Analysis of the Phlogiston Case», Erkenntnis, 70, 331-364.
– (2016), «Drift Theory and Plate Tectonics: A Case of Embedding in Geology», Foundations of Science,
November, DOI: 10.1007/s10699-016-9505-8.
Cohen, I. B. (1976), «The Eighteenth-Century Origins of the Concept of Scientific Revolution»,
Journal of the History ofIdeas, 37, 2 (Apr.-Jun.), 257-288.
Daston, L. (2016), «History of Science without Structure», en Robert J. Richards & Lorraine Daston
(eds.): Kuhn’s Structure of Scientific Revolutions at fifty: Reflections on a science classic, Chicago,
University of Chicago Press, 115-132.
Díez, J. A., Moulines, C.U. (1999), Fundamentos de Filosofía de la Ciencia, Ariel, Barcelona.
Falguera, J. L., & Donato Rodríguez, X. (2015), «Incommensurability, Comparability, and Non
reductive Ontological Relations», Journal for the General Philosophy of Science, DOI
10.1007/s10838-014-9275-3, Published online: 01 January, 1-22.
Feyerabend, P. K. (1962/1981), «Explanation, Reduction, and Empiricism», Realism, Rationalism and
Scientific Method. Philosophical Papers, vol. I, Cambridge University Press, Cambridge, 44-96.
– (1977) «Changing Patterns of Reconstruction», The British Journal for the Philosophy of Science, 28,
351-369.
Ginnobili, S. (2014), «La inconmensurabilidad empírica entre la teoría de la selección natural
darwiniana y el diseño inteligente de la teología natural», Theoria. An International Journal for
Theory, History and Foundations of Science, 81, 375-394.
Kuhn, T. S. (1962/1970), The Structure of Scientific Revolutions, Chicago, The University of Chicago
Press.
– (1976), «Theory Change as Structure-Change: Comments on the Sneed Formalism», Erkenntnis, 10,
179-199.
– (1981/2000), «What Are Scientific Revolutions?», in James Conant & John Haugeland (eds.) The
Road Since «Structure»: Philosophical Essays, 1970-1993, with an Autobiographical Interview by
Thomas S. Kuhn, Chicago, The University of Chicago Press, 13-32.
–(1983), «Commensurability, Comparability, Communicability», Philosophy of Science Association, II:
669-688.
– (1993) «Afterwords», en Horwich, P. (ed.), World Changes: Thomas Kuhn and the nature ofscience, The
MIT Press, Massachusetts, 311-341.
Laudan, R. (1978), «The Recent Revolution in Geology and Kuhn’s Theory of Scientific Change», PSA:
Proceedings of the Biennial Meeting of the Philosophy of Science Association, 2, Symposia and Invited
Papers: 227-239.
Lorenzano, P. (2008), «Inconmensurabilidad teórica y comparabilidad empírica: el caso de la
genética clásica», Análisis Filosófico, XXVIII, (2), 239-279.
Moulines, C.U. (1984), «Ontological Reduction in the Natural Sciences», en W. Balzer et. al. (eds.),
Reduction in Science, Dordrecht, Reidel, 51-70.
– (2000), «Is There Genuinely Scientific Progress?», en Adam Jonkisz & Leon Koj (eds.), On Comparing
and Evaluating Scientific Theories, Poznan Studies in the Philosophy of the Sciences and the Humanities,
72, 173-197.
– (2010), «The Crystallization of Clausius’s Phenomenological Thermodynamics», in Andreas
Hüttemann & Gerhard Ernst (eds.), Time, Chance, and Reduction: Philosophical Aspects of Statistical
Mechanics, Cambridge, Cambridge University Press, 139-158.
– (2011). «Cuatro tipos de desarrollo teórico en las ciencias empíricas», Metatheoria, 1 (2), 11-27.
¿ES IMPRECISO EL SIGNIFICADO
DE UNTÉRMINO T-TEÓRICO?
1. INTRODUCCIÓN
E n las últimas décadas ha prosperado una línea de pensamiento, inspirada en el
ciertos términos
enunciado Ramseyde (1929),
T queconforme
son a la cual, dada una teoría empírica T, hay
T-dependientes; es decir, el significado (o
identidad conceptual) de cada término T-dependiente depende de determinadas
condiciones de la teoría de la que forma parte. Entre las propuestas en esta línea están
las de Carnap (1958; 1966) y Lewis (1970). Se trata de un holismo semántico parcial, ya
que la dependencia semántica respecto a una determinada teoría sólo alcanza a
algunos de sus términos.
Esa línea de pensamiento da lugar a plantearse si el significado de cada término T
dependiente viene determinado por todas o por la mayoría de las asunciones de T.
Papineau (1996) discute tal posibilidad, defendiendo que el significado de un término
T–dependiente viene determinado sólo por algunas asunciones de T, no por todas
ellas. Para valorar la propuesta de Papineau debemos examinar sucesivamente: (§2) en
que consiste el enunciado Ramsey; (§3) lo que podemos llamar la propuesta de Carnap
acerca del contenido sintético y del contenido analítico de una teoría a la luz del
enunciado Ramsey (llamémosle propuesta de Carnap); (§4) el análisis de Lewis acerca
de cómo definir un término T-dependiente (o T-teórico) a partir de la propuesta
Ramsey-Carnap (llamémosle análisis de Lewis). Todo ello nos permitirá examinar (§5)
las consideraciones de Papineau previamente mencionadas y valorarlas. Para
formular una alternativa a la de Papineau me apoyaré en (§6) consideraciones de la
metateoría estructuralista.
2. ENUNCIADO RAMSEY
Dada una teoría T (axiomatizada finitamente e interpretada) cuyos términos T
teóricos
representasonpor
t1 T[t1
… tn y cuyos términos T-no-teóricos son o1…om, su formulación se
… tn, o1…om], el enunciado Ramsey se representa por ∃y1 … ∃yn
[y1 … yn, o1…om].
3. PROPUESTA DE CARNAP
Represéntese la teoría interpretada por TC y el enunciado Ramsey por RTC. Si dada
términos
una teoríaobservacionales,
tenemos que α,talβ,
que
γ,podemos
δ son sus
considerar:
términos teóricos y O1, O2, …, Om, sus
Dicho de otra forma, RTC→TC establece que «si existen entidades (referidas por los
cuantificadores existenciales del enunciado Ramsey) que están vinculadas conforme a
los postulados teóricos de la teoría y que están conectadas a las entidades
observacionales conforme a las reglas de correspondencia de la teoría, entonces ésta
es verdadera». Ello no es afirmar nada acerca de cómo es el mundo, sino más bien que
«si el mundo es como establece el sustituto Ramsey, entonces los términos no
observacionales [T-dependientes o T-teóricos en nuestra presentación] designan
conforme a cómo se plantea en la teoría original» (Carnap 1966, 271, v. cast. 230).
4. ANÁLISIS DE LEWIS
Lewis (1970) objeta que el enunciado condicional de Carnap en su antecedente sólo
requiere que alguna n-tupla apropiada realice a T. Así pues, con el enunciado
condicional del Carnap no se exige que la realización sea única, ni se establece nada
para cuando no hay realización alguna.
Tanto la posibilidad de realización múltiple como la de que no haya realización
supondría, según Lewis, que los términos T-teóricos no tuvieran denotación; es decir,
según Lewis los términos T-teóricos denotan en tanto que nombran los componentes
de una única realización. Por ello, Lewis señala que el contenido analítico de T no
viene dado por el enunciado Carnap sino que se despliega en tres postulados:
(2)
(1)
(3)
El primero establece que si T tiene una realización única, entonces es realizada por
las entidades nombradas por los términos T-teóricos. El segundo que si T no es
realizada, entonces los términos T-teóricos no denotan. El tercero que si T tiene
realización múltiple, entonces los términos T-teóricos no denotan.
La consideración de que los términos T-teóricos denoten cuando la realización de
T es única, posibilita definir –explicitar la identidad conceptual o significado de– cada
término T-teórico mediante descripciones definidas como las siguientes:
……
……
5. CONSIDERACIONES DE PAPINEAU
Papineau (1996) dice en el abstract:
«The main puzzle about theoretical definitions is that nothing seems to decide which
assumptions contribute to such definitions and which do not». (p.1)
Más adelante señala:
«Quinean considerations suggest that there is no way of drawing a line between analytic
assumptions that play a defining role and synthetic assumptions that do not. Certainly there
is no obvious feature of scientific or everyday thinking which might serve to underpin such a
distinction. Butthis then threatens the implication that the meaning of theory-dependent
terms is imprecise and that claims made using them are therefore not well-defined.
In this paper I shall argue that the meanings of theory-dependent terms are indeed
imprecise, butthat this does not normally matter. This is because the imprecision in
definition does not normally lead to an indeterminacy in referential value.
I say that the imprecision of theoretical definitions does not normally lead to an
indeterminacy in referential value, and so does not normally matter.The qualification is non
trivial, in that there are some theory-dependent terms which do have indeterminate
referential values. When this less benign species ofimprecision is detected, the appropriate
remedy is to remove it by tightening up the relevant term’s definition». (p.2)
Para establecer a continuación:
«The imprecision of theoretical definitions bears on a number of recent philosophical
debates. Most obviously, it is relevant to recent discussions of «semantic holism». One
familiar argument for semanticholism starts with the assumption
(1) the meanings of some terms are fixed by theoretical definitions. It then adds in
the Quine-inspired premise
(2) we cannot divide the assumptions in a theory into those with definitional status
and those without.
And from these two premises it concludes
(3) all the assumptions containing a theoretically defined term contribute equally to
its meaning». (p.2)
En otro lugar, aunque acepta que los significados de los términos definidos
teóricamente pueden cambiar (como el de cualquier otra palabra), indica que a su
entender nada en la estructura de las definiciones teóricas implica que el significado
de los términos definidos deba cambiar al cambiar la creencia en la teoría relevante;
asumir lo contrario no es más que un residuo del modelo verificacionista del
significado (ver p.10). El significado de un término T-dependiente F queda
determinado por ciertas aseveraciones de Tacerca F, no porque se crea o no en T. Y,
respecto a la definición mediante el procedimiento debido a Lewis (antes presentado),
añade dos desiderata en relación a las asunciones relevantes para un término T
dependiente F:
«So a first desideratum is that the definition must include enough theory to ensure that T is
uniquely satisfied. If so little is included in T that a number of different entities satisfy the
requirements imposed by T, then every (non-negative-existential) F-claim will fail for this
reason. Second, the definition must not include so much theory that nothing satisfies T. If so
much is included in T that no entities satisfy all the requirements imposed by T, this too will
falsify every (non-negative-existential) F-claim». (p. 10-11)
Para añadir:
«It is central to what follows that the satisfaction of these two desiderata does not require
that F have a precise definition. In this section and the next, Ishall illustrate this point with a
simplified model ofimprecise definitions». (p. 11)
A tales efectos Papineau (1996) plantea que en una teoría T con un término F que
es T-dependiente hay:
• Un grupo de asunciones que incuestionablemente SÍ contribuyen a la definición del
término F[Ty];
• Un grupo de asunciones que incuestionablemente NO contribuyen a la definición
del término F[Tn];
• Un grupo de asunciones que QUIZÁS SÍ O QUIZÁS NO contribuyan a la definición
del término F[Tp], están indeterminadas al respecto.
E indica que lo determinante es saber si el grupo de asunciones incluidas en Ty es
suficiente para determinar extensionalmente de manera unívoca a F sin que al
añadirle Tp varíe esa extensión; es decir, que F sea satisfecho por una única entidad
(conjuntista) gracias a Ty y sin variar al considerar asunciones de Tp es suficiente para
establecer la definición de F. En caso contrario, tenemos que ir reforzando Ty con
asunciones de Tp hasta conseguir la determinación unívoca de F.
Aunque a primera vista la propuesta suena bien, hay tres inconvenientes en el
planteamiento de Papineau:
1) Papineau asume (como Lewis) que la distinción dependiente/no-dependiente es
relativa a cada teoría, pero (como Lewis) no proporciona un criterio
metodológicamente claro para demarcar cuáles son los términos T-dependientes y
cuáles los T-no-dependientes.
2) Un holismo semántico acotado con respecto a qué asunciones determinan el
significado de un término FT-dependiente parece que debe postular que las
asunciones relevantes deben ser las mismas que las relevantes para el significado
de los otros términos T-dependientes, dada la interdependencia de significado de
los términos T-dependientes. (Aceptar esto requería una leve modificación
aparente en las propuestas de Papineau, pero de mayor calado si las asunciones
relevantes han de ser las mismas para la determinación unívoca de la extensión de
cada uno de los términos T-dependientes.)
3) La idea de que hay asunciones de una teoría T que no son relevantes al fijar el
significado de un término T-dependiente y con ello, según Papineau, para la
determinación unívoca de su extensión, dada la interdependencia que para
determinación extensional de un término T-dependiente tienen las asunciones
que afectan al resto de términos T-dependientes, sólo dejaría fuera: (i) a
asunciones relevantes para determinar valores de términos T-no-dependientes
para las aplicaciones de T; o (ii) aquellas que son irrelevantes para la teoría. Las
segundas simplemente no hay porque considerarlas como parte de la teoría T en
cualquier reconstrucción (informal o formal) un tanto seria de T. Las primeras, en
la medida en que sirven para determinar valores de términos T-no-dependientes
que son realmente relevantes para T, es difícil entender qué significa que no
contribuyen a la determinación extensional de los términos T-dependientes, ya
que esos valores de los términos T-no-dependientes sí contribuyen a la
determinación de los valores de los términos T-dependientes y por ello a sus
extensiones efectivas.
Así pues, no está nada claro que, dado un grupo de asunciones de una teoría T, cuáles son las
Ty, cuáles las Tn y cuáles las Tp para un término FT-dependiente.
Esto se complica más porque las asunciones para una teoría cambian (no son fijas) con el
transcurso del tiempo; y si cambian con el transcurso del tiempo, ¿cómo establecer los tres grupos
de asunciones y fijar el significado de un término T-dependiente en un determinado momento del
desarrollo de la teoría T? Cabe plantear que con este procedimiento sólo se fijaría el significado de
un término T-dependiente para un determinado momento de desarrollo de T. Pero eso es tanto
como aceptar que el significado de un término científico puede cambiar con el desarrollo de la
teoría respecto a la que es T-dependiente. Esta conclusión es bastante insatisfactoria, ya que
tendría como inconveniente tener que aclarar por qué decimos que estamos ante la misma teoría si
sus términos más significativos han cambiado de significado. Y esto último no parece aclarable en
el marco de esta propuesta.
Así, pues, no hay en la propuesta de Papineau un criterio claro y apropiado para
establecer cuándo una asunción de una teoría T es relevante para establecer la
identidad de un concepto científico, cuándo es relevante para dar cuenta del
significado de un término científico T-dependiente. No obstante, aunque la propuesta
es insatisfactoria, creo que se sitúa en el sendero interesante de intentar mostrar que
cualquier holismo semántico apropiado no puede plantear que, dada una teoría T, la
identidad de sus términos T-dependientes depende de todo T.
Figura 1
7. REFERENCIAS BIBLIOGRÁFICAS
Balzer, Wolfgang, Moulines, C. Ulises, Sneed, Joseph (1987), An Architectonic for Science. The
Structuralist Program, Dordrecht, Reidel.
Carnap, Rudolf (1958), «Beobachtungssprache und theoretische Sprache», Dialectica, 12, 236-248.
(Version usada: «Observational Language and Theoretical Language», in: Hintikka, J. (ed.)
(1975) RudolfCarnap, Logical Empirist. Materials and Perspectives, Dordrecht, Reidel, 75-85).
Carnap, Rudolf (1966), Philosophical Foundations of Physics, New York, Basic Books.
Falguera, José L. (2011), «Consideraciones de índole ontoepistemosemántica», Metatheoria, 1(2), 39
63.
Lewis, David (1970), «How to Define Theoretical Terms», Journal of Philosophy, 67, 427-446.
Papineau, David (1996), «Theory-dependent Terms», Philosophy of Science, 63, 1-20.
Ramsey, Frank P. (1929), «Theories», en: Ramsey, Frank P. The Foundations of Mathematics.
Humanities Press, pp. 212-236. (Versión usada: Ramsey, Frank P. Foundations: Essays in
Philosophy, Logic, Mathematics, and Economics. London, Routledge & Kegan Paul, 1978, pp. 101
125).
LA CIENCIA DE ALEXANDERVONHUMBOLDT: EN BUSCA DE
LA UNIDAD DE LA NATURALEZA
RESUMEN: Propongo que la aplicación a la naturaleza en todos sus aspectos del concepto de
unidad orgánica, con el que Alexander von Humboldt busca conciliar el sinfín de datos que
recopila a lo largo de su larga vida científica, constituye un buen ejemplo de lo que el filósofo
de la ciencia Imre Lakatos describe como «programa de investigación progresivo» (progressive
research programme). Además de servir de hilo unificador de sus propias observaciones
multidisciplinarias, la concepción de la unidad de la naturaleza conformaría la base de lo que
eventualmente sería la ciencia de la ecología pues, de una forma u otra, paulatinamente fue
adoptada posteriormente por innovadores intelectuales como Ernst Haeckel, Henry David
Thoreau, George Perkins Marsh y John Muir. Se completa esta contribución tomando nota de
que para Humboldt el principio de la unidad de la naturaleza obtiene su primera prueba y
confirmación durante su exploración de los múltiples ecosistemas inter-conectados en el Teide
en Tenerife.
Palabras clave: programa de investigación progresivo; unidad de la naturaleza; vitalismo.
1. INTRODUCCIÓN
E n la reciente biografía La invención de la naturaleza. El nuevo mundo de Alexander
naturaleza
von Humboldt
se (2016),
encuentra
Andrea
plasmada en muchas
Wulf apunta que la idea de la unidad de la
partes de sus voluminosos
escritos. Humboldt lo expresa por ejemplo en una carta que escribe justo antes de
salir en su viaje a «las regiones equinoxiales» en la que dice: «Voy a tratar de
averiguar cómo interactúan las fuerzas de la naturaleza unas sobre otras, y qué
influencia tiene el entorno geográfico sobre la vida vegetal y animal. Es decir, tengo
que llegar a conocer la unidad de naturaleza». (Lee 2001, 29)
Es de notar que la idea de la unidad de la naturaleza, al igual que la noción
leibnitziana del «principio de razón suficiente», es una noción no demostrada ni
demostrable (al menos para seres limitados como somos los humanos). Por lo que, aun
si intuitivamente esta idea nos puede parecer evidente, en realidad más bien
constituye –como tal vez diría Kant (1781/2007)– una mera idea regulativa, es decir,
un concepto que utilizamos para facilitarnos el descubrimiento de conexiones entre
datos empíricos y llegar a conclusiones generales. En tándem con la aplicación de este
concepto regulativo, Humboldt participó de forma muy activa en la transformación de
las ciencias naturales, que progresivamente dejan de ser un campo de especulación
racional, apoyado por datos relativamente limitados y de poca precisión, para llegar a
ser empresas respaldadas por la aplicación sistemática de instrumentos exactos.
Es notable además que, mientras en ese momento histórico las ciencias más bien
estaban tendiendo a desarrollar rivalidades inter-disciplinarias, por ejemplo, entre la
física y la química, y los incentivos para colaborar entre ellas probablemente eran aún
menos que los que existen hoy en día, Humboldt incita a sus colegas a una
colaboración sistemática y global con el fin de crear nuevas perspectivas integradoras,
tales como la geografía física. Mi método de trabajo en este artículo es seguir la huella
del concepto de unidad en la multiplicidad de fenómenos naturales en la concepción
de la ciencia según Humboldt. Entro en debate con Adolf Meyer-Abich (1968), quien
argumenta que para Humboldt este principio metódico se deriva de un vitalismo al
que supuestamente se adhiere en su época temprana. Sigo con algunas reflexiones
sobre las bases de la visión unificadora de Humboldt. Concluyo con la sugerencia de
que la visita de Humboldt al Pico Teide, que constituye su primera exploración de
camino a las regiones tropicales, ya le proporciona una primera confirmación de la
validez de su principio metódico.
5. CONCLUSIÓN
La trayectoria del trabajo científico de Humboldt constituye un buen ejemplo de
«programa de investigación progresivo», tal como fue propuesto por Lakatos (1978).
Humboldt muestra cómo, partiendo del principio metódico de que la naturaleza hay
que entenderla en base a las relaciones entre los diversos fenómenos, se lanza a la
recopilación y organización de un sinfín de datos para demostrarlo, aplicando nuevas
técnicas de ilustración de conocimientos. El resultado final es que Humboldt crea
nuevas formas de entrever la unidad de la naturaleza que posteriormente dan lugar a
nuevas ciencias como la ecología y la biogeografía.
6. REFERENCIAS BIBLIOGRÁFICAS
Ette, Ottmar, (2016), «Alexander von Humboldt, die Humboldtsche Wissenschaft und ihre Relevanz
im Netzzeitalter», HiN – Alexander von Humboldt im Netz. Internationale Zeitschrift für Humboldt
Studien 7 (12).
Guthrie, W.K. (1993), Orpheus and Greek Religion: A Study of the Orphic Movement, Princeton, Princeton
University Press.
Heyd, Thomas (2015), «Ascensión al Teide de Alexander von Humboldt», HiN – Alexander von
Humboldt im Netz. International Review for Humboldt Studies 16 (30).
Humboldt, Alexander von (1849), Ansichten der Natur mit wissenschaftlichen Erläuterungen, Tübingen,
J.G. Cotta Verlag.
Humboldt, Alexander von (1845-62), Kosmos, 5 vols., Stuttgart, J.G. Cotta Verlag.
Humboldt, Alexander von (1849), «Die Lebenskraft oder der Rhodische Genius, eine Erzählung», en
Alexander von Humboldt, Ansichten der Natur: mitwissenschaftlichen Erläuterungen, Stuttgart und
Tübingen, J.G. Cotta Verlag, 297-308 y 311-314.
Humboldt, Alexander von, y Bonpland, Aimé (1805), Essai sur la géographie des plantes accompagné
d’un tableau physique des régions équinoxiales, Paris, Levrault, Schoell et co.
Humboldt, Alexander von, y Bonpland, Aimé (1826), Viage à las regiones equinocciales del nuevo
continente, hecho en 1799 hasta 1804, Paris, Rosa; http://www.memoriachilena.cl/602/w3-article
9521.html (visto, 2 junio, 2014).
Kant, Immanuel (2007), Crítica de la razón pura, Mario Caimi (trad.), Buenos Aires, Ediciones Colihue.
(Kant, Immanuel (1781), Die Kritik der reinen Vernunft.)
Knobloch, Eberhard, (2010), «Nomos und physis – Alexander von Humboldt und die Tradition
antiker Denkweisen und Vorstellungen», HiN – Alexander von Humboldt im Netz. Internationale
Zeitschrift für Humboldt-Studien 11 (21), 45-55.
Lakatos, Imre (1978), The Methodology of Scientific Research Programmes: Philosophical Papers Volume 1,
Cambridge, Cambridge University Press.
Lee, Jeff (2001), «Alexander von Humboldt», Focus on Geography 46, 29-30;
http://onlinelibrary.wiley.com/doi/10.1111/j.1949-8535.2001.tb00015.x/abstract (visto 3 de
julio 2014).
Meyer-Abich, Adolf (1968), «The philosophy of nature in Alexander Von Humboldt’s “Views of
nature”», Acta Biotheoretica 18 (1), 9-50.
Vitte, Antonio Carlos; Wittgenstein Dias da Silveira, Roberison (2010), «Alexander von Humboldt y
la génesis de la geografía física moderna», HiN – Alexander von Humboldt im Netz. Internationale
Zeitschrift für Humboldt-Studien 11 (21), 72-85. DOI: 10.18443/147.
Walls, Laura Dassow, Jackson, Stephen T. and Person, Mark W. (2014), «Introduction: Reclaiming
Consilience», en Humboldt, Alexander von, Views of Nature, Stephen T. Jackson and Laura
Dassow Walls (eds.), Mark W. Person (trad.), Chicago, University of Chicago, 1-14.
Whewell, William, (1840), The Philosophy of the Inductive Sciences, Founded Upon Their History, London,
John W. Parker.
Wulf, Andrea (2016), La invención de la naturaleza. El nuevo mundo de Alexander von Humboldt, María
Luisa Rodriguez Tapia (trad.), Penguin Random House Grupo Editorial España.
VERIFICACIÓN Y VALIDACIÓN EN SIMULACIONES
COMPUTACIONALES: IDEALES EPISTÉMICOS Y PRÁCTICAS
METODOLÓGICAS
RESUMEN: En este trabajo abordamos uno de los problemas filosóficos centrales respecto de
las simulaciones computacionales en ciencia, el de sus garantías epistémicas. Tras un breve
repaso de las caracterizaciones que se pueden encontrar en la literatura, nos concentramos en
la idea reciente de utilizar criterios metodológicos para justificar el conocimiento que proviene
de una simulación. Sugerimos que existen más tensiones y continuidades entre los ideales
epistémicos y las prácticas metodológicas que las señaladas habitualmente, usando una lectura
diferente de la distinción clásica en el ámbito de las simulaciones entre verificación y
validación. Proponemos que la manera de resolver esta tensión es considerar el rol propio que
tienen las simulaciones computacionales en un contexto ampliado de prácticas científicas, en el
que la validez epistémica de los resultados no se encuentra garantizada por ideales universales
sino por prácticas más bien locales, las que pueden variar de acuerdo al problema de interés
particular que está siendo analizado.
Palabras clave: prácticas científicas; metodología; valores epistémicos.
1. INTRODUCCIÓN
U no de los problemas filosóficos centrales respecto de las simulaciones
computacionales en ciencia es el de sus garantías epistémicas. Esta
problemática ha sido planteada de diversos modos y se ha intentado resolver
con muy variadas estrategias. En este trabajo nos proponemos abordar el problema
desde la perspectiva que utiliza una distinción clásica en el ámbito de las
simulaciones, la de verificación y validación, pero que sin embargo intenta mostrar
tensiones y continuidades entre ideales epistémicos y prácticas metodológicas, sobre
las que se ha prestado muy poca atención en la literatura especializada. En particular,
intentaremos mostrar que parte del fracaso de algunas caracterizaciones de la
confiabilidad de las simulaciones se debe o bien a la «imposición forzada» de ideales
epistémicos en prácticas metodológicas o a la simple sustitución de la epistemología
por la descripción metodológica.
3. VERIFICACIÓN Y VALIDACIÓN
El objetivo de esta sección es señalar el complejo entramado de prácticas que se
puede observar en la práctica científica e ingenieril contemporánea, proponiendo una
lectura alternativa de la bibliografía técnica sobre la metodología empleada en dichos
contextos para confiar en los resultados de las simulaciones. En nuestra lectura
ponemos el énfasis en cómo necesariamente existen ciertos momentos de ajuste y
bucles en el proceso, que responden a criterios que provienen de valores epistémicos,
incluso cuando se trata de los elementos «más técnicos» del proceso.
De manera tradicional, por verificación de una simulación se entiende el proceso
mediante el cual el desarrollador y el usuario de dicha simulación pueden asegurarse
de que el algoritmo que discretiza el modelo matemático que se está implementando
lo hace sin introducir distorsiones. Esto implica dos etapas, como sugirió Roache
(1998). Por un lado, la verificación del código, es decir, verificar que el código resuelve
la versión discreta de las ecuaciones que gobiernan al modelo. Por otro lado, es
necesario llevar a cabo una verificación del cálculo o de las soluciones, por lo que hay
que atender al proceso por el cual se puede demostrar que las soluciones que se
obtienen con dicho código son numéricamente exactas, dentro de los errores
racionalmente aceptados para el método que se está usando y los recursos
disponibles. Hasta aquí no hay física involucrada, que es lo que corresponde evaluar
en la etapa de validación. Por ésta se entiende el proceso por el que se contrastan los
resultados del modelo verificado con resultados provenientes de medios externos a la
simulación que se pretende validar. Validación es uno de los conceptos más discutidos
en la literatura técnica y el que más se presta a confusiones conceptuales. Creemos
que hay que distinguir entre al menos dos concepciones del proceso, que hemos dado
a llamar validación débil y validación fuerte. En la versión débil, las fuentes de datos
con los que se puede contrastar un modelo son variadas, incluyendo comparaciones
con otros modelos, tanto analíticos como simulaciones ya validadas, datos históricos y
experimentales disponibles acerca del fenómeno o sistema de interés, tests de Turings
(en los que se le pide a un experto que discrimine entre resultados del modelo y
resultados empíricos), etc. y responden a los lineamientos trabajados por Sargent
(2013) y gran parte de las referencias incluidas allí. La versión fuerte sólo permite
realizar la validación contrastando los resultados del modelo verificado con las
mediciones realizadas sobre un experimento de validación, diseñado y llevado a cabo
siguiendo los mismos supuestos y especificaciones que se consideraron al plantear el
modelo matemático. Esta línea es la que prevalece dentro de la comunidad de
ingeniería mecánica y de dinámica computacional de fluidos. Es importante señalar
que ambas concepciones reconocen que los procesos de verificación y validación son
continuos y no se debe hablar de modelos completamente verificados y validados, sino
de si cumplen los requisitos previstos para los mismos por parte de sus
desarrolladores y usuarios.
La verificación del código incluye, a su vez, dos clases de actividades. Por un lado
están aquellas que involucran todas las pruebas que se puedan realizar para
determinar el grado de precisión numérica del algoritmo, incluyendo las soluciones
analíticas para las partes que resuelven modelos físicos simples, soluciones de alto
grado de confianza [o benchmark] para las ecuaciones diferenciales parciales y
ordinales, pruebas de conservación, pruebas de simetría, pruebas de convergencia
iterada y el método de las soluciones manufacturadas. Se dice que estas operaciones
son netamente empíricas ya que responden a procesos de testeo, observación y
comparación, en tanto no puede probarse formalmente la equivalencia entre el código
y las soluciones de contraste (Oberkampf & Roy 2010, 33). El otro aspecto involucrado
en la verificación del código consiste en las prácticas usadas para asegurar la calidad
del software, como son desarrolladas e implementadas por las comunidades de la
ciencia de la computación y la ingeniería del software, incluyendo las etapas de
diseño, desarrollo, operación y mantenimiento, así como también las relativas a la
administración y documentación. Las tres formas clásicas de llevar a cabo el análisis
de la calidad de software son el análisis estático (en el que se inspecciona el código en
busca de errores), el análisis dinámico (en el que se verifica el comportamiento del
programa en un conjunto finito de casos contra el resultado esperado para los
mismos) y el análisis o verificación formal.
Si bien posee una dinámica epistémica muy fértil, la verificación formal no suele
ser utilizada en contextos de ciencia computacional e ingenieriles debido a razones
que van desde que normalmente la mayoría de los ingenieros de software no reciben
entrenamiento en ella hasta los problemas de escalabilidad del método cuando se
intentan simular sistemas muy grandes. Se suele aplicar en sistemas críticos (como el
diseño de una planta nuclear) en el que el impacto económico y temporal de llevarlos
a cabo es mínimo con respecto al riesgo involucrado (Heitmeyer, 2004). Si bien
Oberkampf & Roy (2010, 159) recomiendan no utilizar métodos formales para el
software de computación científica señalando las razones ya citadas, probablemente
también se deba a que ven en dicha práctica un «proyecto filosófico» distinto para
V&V, centrado en la deducción desde primeros principios mientras que, según su
mirada, estas prácticas deberían verse más bien como «alineada con los procesos de
razonamiento inductivo, es decir procesos que presentan la corrección de las piezas
individuales de evidencia como soporte de la conclusión de corrección de la
generalización» (Oberkampf & Roy 2010, 32). Estos autores (2010, 153) también
señalan que las especificidades de la práctica de la computación científica obligan a
los simuladores a generar un complejo entramado de procesos para lograr la
validación del código. En particular porque el cambio de campo de aplicación impide
una importación directa de lo que se consideran buenas prácticas de validación en los
contextos de ingeniería de software. En dichos contextos normalmente se conoce de
antemano el comportamiento esperado y que se pretende obtener con el código que se
está implementando, lo que incluso raramente sucede en casos aplicados como en
ingeniería, mucho menos en las simulaciones computacionales en ciencia.
El segundo aspecto es la verificación de las soluciones, que intenta identificar y
cuantificar los errores que éstas pueden contener, provenientes de errores de los
usuarios al manipular los valores de entrada y en el procesamiento de los valores
generados por la simulación, además de los errores numéricos que pueden
presentarse por la acción misma del algoritmo que ejecutó el modelo discretizado. Las
fuentes usuales de la última clase de errores yacen en la discretización temporal y
espacial que se lleva a cabo en las soluciones numéricas a las ecuaciones del modelo
original y en los errores de soluciones iterativas que dependen del método elegido
para linealizar y resolver un conjunto de ecuaciones no lineales. Además, hay que
considerar posibles errores de redondeo y de muestreo estadístico. Si bien algunas de
las estrategias que se emplean son similares a las utilizadas en la verificación del
código, la gran diferencia radica en que en esta parte del proceso los errores
numéricos no pueden ser simplemente evaluados, sino que deben ser estimados
debido a que no se conocen las soluciones exactas del modelo. Si el modelo con el que
se trabaja tiene singularidades o discontinuidades, los errores numéricos son muy
difíciles de estimar ya que los métodos para lidiar con ellos requieren la continuidad y
la diferenciabilidad de las soluciones. Algo similar ocurre con los modelos multiescala,
en los que se resuelve un fenómeno físico con submodelos de distintas escalas
temporales o espaciales, lo que puede atar los errores físicos con los errores
numéricos, especialmente cuando el cambio de escala obliga a realizar un cambio de
alguno de los submodelos involucrados.
La validación es el otro pilar para generar confianza en los resultados de las
simulaciones y es la que puede comparar las soluciones obtenidas del modelo
computacional con resultados de otras fuentes. Nos concentramos aquí en lo que
hemos dado a llamar «validación fuerte», esto es, la que requiere que la comparación
de dichos resultados se realice contra las mediciones llevadas a cabo sobre un
experimento diseñado de tal manera que instancie lo más fielmente posible la física
que subyace al modelo simulado. Concentrarnos en la variante fuerte de la validación
nos permite mostrar cómo, incluso en la versión «más técnica» posible de esta
práctica, deben ser incorporados criterios epistémicos para proceder en la evaluación
del modelo, además de notar lo intrincada que se vuelven las prácticas experimentales
con las simulaciones.
Lo primero que hay que remarcar es que para validar una simulación en sentido
fuerte, es necesario dejar de lado la capacidad predictiva que pueda tener el modelo
que está bajo evaluación. Esto quiere decir que los resultados de simulación con los
que se trabajará no son los que se esperan del modelo sino los resultados que puedan
ser medidos bajo las condiciones de control disponibles en un experimento de
validación. Como señalamos antes, dicho experimento debe encarnar los supuestos
físicos que se consideraron en el modelo y la magnitud física que se mida en dicho
experimento debe ser exactamente la misma que se obtenga de la simulación, a
efectos de poder generar un valor métrico que señale cuantitativamente la diferencia
entre los mismos. Esto elimina la posibilidad de utilizar datos que provengan de otra
fuente, incluso si son de resultados empíricos de la misma magnitud. La principal
razón es que más allá de la calidad de los datos disponibles, es muy difícil que en los
reportes de experimentos se incluya el nivel de detalle necesario para determinar si
todos los supuestos de dichos experimentos coinciden con los supuestos del modelo a
validar. Esto tiene dos consecuencias importantes. Por un lado, los experimentos de
validación tienen una clara diferencia con respecto a otras clases de experimentos,
especialmente los denominados experimentos de calibración, que se llevan a cabo
para ajustar el valor de un parámetro en una simulación debido a que su valor no
puede calcularse desde las ecuaciones de la teoría o no corresponde a una magnitud
física. Un modelo que incluya parámetros a definir por esta vía no puede ser
fuertemente validado. De hecho hay que considerar que los experimentos de
calibración son una subclase de las actividades de estimación de parámetros, que
muchas veces también se realiza apelando a datos generados por simulaciones. Por
otro lado, debe entrar en juego una suerte de sinergia entre los experimentadores y
los modeladores ya que deben cerciorarse de estar implementando la misma
configuración física en el experimento como en la simulación. A su vez, si bien el
experimento debe ser desarrollado de manera conjunta, es importante que los
analistas que obtengan los resultados de la simulación no tengan acceso a los valores
que provengan del experimento, para poder asegurar que su conocimiento de dicho
valor no les llevó a modificar algún aspecto del modelo. Una vez realizado un número
suficiente de mediciones experimentales y de simulaciones, se comparan los
resultados para obtener una métrica de validación, un valor que indica la diferencia
entre los resultados. Si la diferencia está dentro de los márgenes establecidos en las
especificaciones, se puede proceder a realizar las predicciones. Si no, se evalúan las
causas posibles de la diferencia y se intenta modificar el experimento o la simulación
volviendo a repetir todos los pasos anteriores (especialmente los de verificación, si es
que se modifica algo del código) hasta que la métrica de validación corresponda a los
valores necesarios.
La principal dificultad de este procedimiento radica en que los modelos que
pueden ser fuertemente validados son muy pocos, especialmente porque realizar
experimentos de validación para sistemas altamente complicados puede ser
extremadamente costoso, si es que no simplemente imposible. Para lidiar con este
problema, se recurre a una jerarquía de validación, en la que se descompone al
sistema de interés en distintos niveles, identificando así sistemas y subsistemas hasta
llegar a los problemas unitarios [unit problems]. Para cada uno de ellos se deben llevar
a cabo experimentos de validación. Esto deja entrever que el proceso de validación
fuerte es claramente constructivista en el sentido en que reconoce que la calidad y la
precisión de los datos experimentales disminuyen a medida que se asciende en la
jerarquía, obligando a considerar en cada nivel el entramado de resultados y
submodelos que están en juego. Así, la descomposición en niveles implica poder
conocer de qué manera están atados los diferentes niveles a efectos de lograr un nivel
de validación adecuado para el sistema general. Claramente en esta estrategia opera
una comprensión lineal del enlace entre los niveles, lo que puede causar una
disminución de la confianza en los resultados del proceso cuando se aplica a sistemas
complejos. Una vez que se ha obtenido un grado adecuado según las métricas de
validación, se puede proceder a realizar predicciones con dicho modelo[1].
4. CONCLUSIONES
Una vez apreciada la compleja dinámica de la práctica de verificación y validación
(V&V), la pregunta que hay que responder es qué tanto puede dicha metodología
funcionar como garantía epistémica para los resultados de las simulaciones. Creemos
que una correcta interpretación de dicha práctica nos lleva a una posición intermedia
entre la defendida por Winsberg en un extremo y Morrison en el otro. Esto es,
acordamos en la importancia de rescatar la aproximación desde la metodología, ya
que permite dar cuenta de las prácticas de construcción y de la confiabilidad de los
resultados de las simulaciones computacionales, así como de los límites de la
clasificación original para la epistemología de las simulaciones (ni las aproximaciones
que ven a las simulaciones como modelos, ni las que las ven como casos de
experimentación, ni aun las perspectivas híbridas pueden hacerlo). Ahora bien,
resulta importante que la metodología en general –y V&V en particular– no se
conviertan en un ideal metodológico que deba cumplirse paso a paso y de modo
secuencial ya que como se puede observar en la reconstrucción de dicha práctica de la
sección anterior, esto es casi imposible de lograr, incluso en sistemas muy sencillos.
En general, la literatura filosófica ha tomado la estrategia de separar ideales
metodológicos de ideales epistémicos sin atender a sus vínculos. La estrategia de
autores como Morrison consiste en convertir a los ideales metodológicos en ideales
epistémicos. Sin embargo, tanto en la primera alternativa como en la segunda no se
puede dar cuenta de (a) los procesos de construcción de los modelos computacionales,
(b) del carácter heurístico, reconocido por los propios metodólogos, del proceso de
V&V, y (c) la dinámica de retroalimentación entre verificación y validación que hace
que la distinción entre ambas fases resulte menos nítida. En consecuencia, no se
debería considerar a la práctica de V&V como una mera estrategia evaluada
pragmáticamente, en la que las simulaciones meramente se ajustan para que los
resultados coincidan con los valores empíricos disponibles, ni como una mera receta
metodológica para garantizar resultados. Se trata más bien de un componente clave
de las prácticas científicas e ingenieriles en el que se puede observar la rica dinámica
existente entre los ideales epistémicos y metodológicos y los valores epistémicos que
entran en juego al reconocer que dichos ideales nunca pueden ser alcanzados
fehacientemente. Por lo tanto, las simulaciones computacionales deben considerarse
sólo en un contexto ampliado de prácticas científicas, en el que la validez epistémica
de los resultados no se encuentra garantizada por ideales universales sino por
prácticas más bien locales que pueden variar de acuerdo al problema de interés
particular que está siendo analizado.
5. REFERENCIAS
Frigg, Roman, Reiss, Julian (2009), «The philosophy of simulation: hot new issues or same old
stew?», Synthese 169,593-613.
Heitmeyer, Constance (2004), «Managing complexity in software development with formally based
tools». Electronic Notes in Theoretical Computer Science 108, 11-19.
Morrison, Margaret (2009), «Models, measurement and computer simulation: The changing face of
experimentation», Philosophical Studies 143 (1):33-57.
Morrison, Margaret (2014), «Values and Uncertainty in Simulation Models», Erkenntnis 79 (5), 939
959.
Morrison, Margaret (2015), Reconstructing reality: Models, mathematics, and simulations. Oxford
University Press.
Oberkampf, William L., Roy, Christopher J. (2010), Verification and validation in scientific computing,
Cambridge University Press.
Parker, Wendy S. (2008), «Franklin, Holmes, and the epistemology of computer simulation»,
International Studies in the Philosophy of Science 22 (2), 165-183.
Roache, Patrick J. (1998), «Verification of Codes and Calculations». AIAAJournal 36 (5), 696-702.
Sargent, Robert G. (2013) «Verification and validation of simulation models», Journal ofsimulation 7
(1), 12-24.
Winsberg, Eric (2009), «A tale oftwo methods», Synthese 169,575-592.
Winsberg, Eric (2010). Science in the Age ofComputer Simulation. The University of Chicago Press.
[1] Dichas predicciones por definición están fuera del rango de validación, por lo que es necesario
introducir en todo el análisis otras herramientas que permitan establecer el grado de confianza de dichos
resultados. El aspecto clave aquí–y que se vuelve un elemento crucial para entender la posibilidad de
garantizar a las simulaciones mediante V&V–es el de las incertidumbres, que no podemos abordar aquí por
razones de espacio.
VENTAJAS DE LA ARQUITECTÓNICA ESTRUCTURALISTA PARA
UNA ADECUADA COMPRENSIÓN DE LA ESTRUCTURA GLOBAL
DE LASTEORÍAS CIENTÍFICAS
RESUMEN: En este escrito me propongo hacer una presentación general de los tres grandes
proyectos arquitectónicos producidos en la filosofía y, en particular, en la filosofía de la
ciencia. Me focalizo, de modo especial, en el proyecto arquitectónico estructuralista que, a
diferencia del proyecto arquitectónico del positivismo lógico, tiene como objetivo (gracias a la
noción de «holón teórico») dar cuenta de la estructura global de la ciencia, al pasar del entorno
más inmediato de las teorías propio de una arquitectónica local, hacia una representación más
general y comprehensiva de la ciencia, propia de una arquitectónica global.
Palabras clave: arquitectónica local; arquitectonica global; holón teórico.
REFERENCIAS BIBLIOGRÁFICAS
Bunge, Mario (1993), «Metateoría», en Yehoshua Bar-Hillel, Mario Bunge et al., El pensamiento
científico. Conceptos, avances, métodos. Madrid, Tecnos, 225-265.
Balzer, Wolfgang, Moulines, C. Ulises. (eds.) (1996), Structuralist Theory of Science. Focal Issues, New
Results, Berlin, Gruyter.
Balzer, Wolfgang, Moulines, C.Ulises, and Sneed, Joseph D. (1983), «The Structuralist of Empirical
Science: Local and Global», en Ruth Barcan Marcus, Paul Weingartner and J. Hutteger (eds.)
Proceedings of the 7h International Congress of Logic, Methodology and Philosophy of Science 1983,
Amsterdam, North-Holland, 1986, 291-306
– (1987), An Architectonic for Science. The structuralist program, Dordrecht, Reidel.
Da Costa, Newton (1994). «Reviewed Work: An Architectonic for Science. The Structuralist Program
by Wolfgang Balzer, C. Ulises Moulines y Joseph D. Sneed», en The Journal of Symbolic Logic (59),
2, 671-673.
Hooker, C.A. (1975). «On Global Theories». In Philosophy of Science, Vol. 42, No. 2 (Jun., 1975), pp.
152-179.
Mormann, Thomas. (1996), «Categorial Structuralism», en Wolfgang Balzer, C. Ulises Moulines
(eds.) (1996), 265-286.
Moulines, C. Ulises (1984), «Links, Loops and the Global Structure of Science», en Philosophia
Naturalis (21), 254-265.
Stegmüller, Wolfgang (1973), The Stucturalist View of Theories: A Possible Analogue of the Bourbaki
Programme in Physical Science, Berlin, Springer.
1 «��»representa la relación de reducción entre elementos teóricos; «��»«la relación de especialización y,
«r» se refiere a la relación de reducción (aproximativa).
LO QUE NOS DEJAMOS EN EL TINTERO AL REDACTAR AN
ARCHITECTONIC FOR SCIENCE
1. INTRODUCCIÓN
D esde la publicación en 1987 de An Architectonic for Science, mucha agua ha
numerosos
corrido pordesarrollos
el cauce del estructuralismo metacientífico: han tenido lugar
novedosos que no se habían contemplado en esa obra, y
es comprensible que ello haya sido así. Eso es justamente lo que se espera de un
programa de investigación fructífero, a saber, que, después de iniciado, conduzca una
y otra vez por nuevos derroteros que no habían podido ser previstos en la fase inicial.
En el caso del estructuralismo, ello ha ocurrido (y sigue ocurriendo) tanto al nivel de
las cuestiones epistemológicas generales, como al de la reconstrucción estructuralista
de teorías concretas.
Todo ello es natural, y sería absurdo reprochar a los autores de Architectonic que,
en 1987, no hubieran previsto todos esos desarrollos ulteriores. Sin embargo, creo que
hay algunos temas que ya habían sido esbozados por autores estructuralistas (en
particular por mí mismo) antes de la redacción definitiva de esa obra y que habrían
podido ser expuestos explícita y sistemáticamente en ella. Ciertamente, eso habría
hecho de Architectonic un volumen aún más grueso de lo que resultó entonces (y por
consiguiente habría sido aún más difícil de lo que ya fue el encontrar una editorial
dispuesta a arriesgarse a publicarlo), pero ésa es otra cuestión. Mirándolo en
retrospectiva, me parece un poco extraño que a Balzer, a Sneed y a mí no se nos
ocurriera integrar esos temas en el libro que estábamos redactando, tanto más cuanto
que, por un lado, se trataba de cuestiones muy importantes al nivel epistemológico y
metodológico general, y, por otro, anteriormente ya se habían dado (al menos en
parte) unos primeros pasos para el tratamiento de los susodichos temas. Confieso que
el principal responsable de ese olvido fui yo mismo, y por ello la presente ponencia
toma un poco la forma de un mea culpa filosófico.
¿Cuáles fueron esos temas que ya habrían podido y debido ser tratados
sistemáticamente en Architectonic pero que no lo fueron? Constato (por lo menos) dos:
1) el carácter de principios-guía que asumen las leyes fundamentales en teorías
empíricas relativamente avanzadas; 2) la construcción de los llamados modelos de datos
a partir de observaciones u operaciones sistemáticas, como antesala a la construcción
de las aplicaciones intencionales de una teoría dada.
3. LOS PRINCIPIOS-GUÍA
En primer lugar. está el tema de los llamados principios-guía, principios que son
característicos de muchas teorías avanzadas de las ciencias empíricas. Ya en 1978, al
comparar los modelos básicos de la mecánica newtoniana con los de la termodinámica
gibbsiana, me percaté de que había rasgos paralelos en las leyes fundamentales de
ambas teorías, a pesar de que una y otra teoría poseen, formal y empíricamente, muy
pocos aspectos en común. Y también me percaté de que esos rasgos podían tener algo
que ver con lo que Kuhn había denominado «generalizaciones simbólicas», las cuales,
según él, constituyen el primer componente de un paradigma y tienen más el carácter
de una «promesa» que el de una ley empírica. Los rasgos comunes de mecánica y
termodinámica que me intrigaron fueron los siguientes: la ley fundamental en ambas
teorías, o sea, tanto el Segundo Principio de Newton para la mecánica, como la
ecuación general de estado para la termodinámica, tienen la forma de una ecuación,
uno de cuyos miembros es un complejo enunciado cuantificado existencialmente a
diversos niveles. En efecto, hay primero una cuantificación existencial sobre el
número de funciones de primer orden o «parámetros», como dirían los físicos, que
hay que considerar para representar el sistema estudiado; en segundo lugar, hay una
cuantificación existencial sobre los parámetros mismos que vienen a cuento (que
pueden ser de distinta naturaleza según el sistema investigado); en tercer lugar, hay
una cuantificación existencial sobre el número de funcionales (o sea, funciones de
funciones) que hay que postular para expresar las correlaciones entre los parámetros
de primer orden; y finalmente hay una cuantificación existencial sobre la naturaleza
misma y la forma lógica de esos funcionales. Dado el carácter tan complejamente
abstracto y, en especial, dada la profusión de cuantificadores existenciales a diversos
niveles, se hace patente que la forma lógica, tanto del Segundo Principio de Newton,
como de la ecuación general de estado de la termodinámica, es tal, que ambos
principios resultan empíricamente irrefutables, una característica que ya Kuhn había
barruntado con respecto a sus «generalizaciones simbólicas» y que causó escándalo en
los filósofos de la ciencia contemporáneos. Esos principios, dada su forma lógica, no
son afirmaciones directas sobre la realidad empírica investigada, sino más bien sobre
nuestras potencialidades conceptuales, matemáticas, para formular leyes de menor
nivel de abstracción que sí puedan ser confrontadas con la realidad empírica. Por ello
decidí utilizar el término «principio-guía» para esos enunciados de tan alto nivel de
abstracción: representan una guía para la formulación adecuada de genuinas leyes
empíricas, que serán distintas según los sistemas investigados, pero todas subsumibles
bajo el principio-guía correspondiente.
Expuse estas ideas sobre los principios-guía por primera vez en 1978 en un
artículo intitulado «Cuantificadores existenciales y principios-guía en las teorías
físicas», publicado en la revista Crítica, de México (Moulines 1978). Con ligeros
retoques reaparecieron como subcapítulo de mi libro Exploraciones metacientíficas
(Moulines 1982), y finalmente traducidas al inglés en una antología sobre el análisis
filosófico en América Latina (Moulines 1984). Todas esas publicaciones son, como se
ve, bastante anteriores a Architectonic. La idea de interpretar el Segundo Principio de
Newton y la ecuación de estado de la termodinámica como principios-guía en el
sentido apuntado, junto con su reconstrucción formal como complejos enunciados
cuantificados existencialmente, habría tenido su lugar natural de exposición en las
secciones 3 y 5 del Capítulo III de Architectonic, donde Balzer, Sneed y yo
reconstruimos detalladamente la mecánica newtoniana y la termodinámica gibbsiana.
¿Por qué no lo hicimos? No puedo realmente responsabilizar de ello a Balzer y a
Sneed, pues ellos desconocían mis trabajos sobre principios-guía. (La antología en
inglés en la que apareció la traducción de mi artículo tuvo una proyección
internacional prácticamente nula.) Pero claro que yo podría haber hecho notar a mis
dos coautores que mis ideas sobre los principios-guía tenían relevancia para nuestra
reconstrucción estructuralista de la mecánica y de la termodinámica, y para una
comparación con las intuiciones de Kuhn sobre la naturaleza de los paradigmas. ¿Por
qué no se lo hice notar? Sinceramente no lo recuerdo. Quizás porque pensé que ya
bastante complejas eran nuestras reconstrucciones de la mecánica y la termodinámica
como para sobrecargarlas con una complicación más. O porque pensé que esos
principios-guía representaban un elemento idiosincrático, no generalizable, de las
teorías en cuestión. En cualquier caso fue un lapsus, y hemos tenido que esperar a las
publicaciones de José Díez, Pablo Lorenzano y José Luis Falguera, quienes han
retomado la idea de los principios-guía, para que haya quedado definitivamente claro
que los principios-guía no representan una particularidad de la mecánica o la
termodinámica, sino que también aparecen en teorías fuera del ámbito de la física,
como la genética o la teoría de la evolución, y que además hay buenas razones
epistemológicas y metodológicas para que ello sea así.
REFERENCIAS BIBLIOGRÁFICAS
Balzer, Wolfgang (1978), Empirische Geometrie und Raum-Zeit-Theorie in mengentheoretischer
Darstellung, Kronberg, Scriptor.
Balzer, Wolfgang, Moulines, C. Ulises, Sneed, Joseph D. (1987), An Architectonic for Science, Dordrecht,
Reidel. Traducción al castellano de Pablo Lorenzano (2012), Una arquitectónica para la ciencia,
Bernal, Universidad Nacional de Quilmes.
Díez, José A. (2006), «Rivalry and Comparability: Looking Outside the Theories», en Gerhard Ernst y
Karl-Georg Niebergall (eds.), Philosophie der Wissenschaft – Wissenschaft der Philosophie,
Paderborn, mentis, 31-49.
Díez, José A. y Lorenzano, Pablo (2013), «Who Got What Wrong? Sober and F&PP on Darwin: Guiding
Principles and Explanatory Models in Natural Selection», Erkenntnis (78/5), 1143-1175.
Falguera, José Luis (2006), «Foundherentist Philosophy of Science», en Gerhard Ernst y Karl-Georg
Niebergall, op. cit., 67-86.
Lorenzano, Pablo (2014), «Principios-guía y leyes fundamentales en la metateoría estructuralista»,
Cuadernos del Sur (43-44), 35-74.
Moulines, C. Ulises (1975), Zur logischen Rekonstruktion der Thermodynamik, Múnich, Ludwig
Maximilians-Universität München.
Moulines, C. Ulises (1975), «A Logical Reconstruction of Simple Equilibrium Thermodynamics»,
Erkenntnis (9/I), 101-130.
Moulines, C. Ulises (1978), «Cuantificadores existenciales y principios-guía en las teorías físicas»,
Crítica (29), 59-88.
Moulines, C. Ulises (1982), Exploraciones metacientíficas, Madrid, Alianza Editorial.
Moulines, C. Ulises (1984), «Existential Quantifiers and Guiding Principles in Physical Theories», en
Jorge J. E. Gracia, Eduardo Rabossi y Enrique Villanueva (eds.), Philosophical Analysis in Latin
America, Dordrecht, Reidel, 173-198.
Suppes, Patrick (1962), «Models of Data«, en Ernest Nagel, Patrick Suppes y Alfred Tarski (eds.),
Logic, Methodology and Philosophy of Science, Stanford, Stanford University Press, 252-261.
VÍNCULOS INTERTEÓRICOS
DE LA CONTABILIDAD POR PARTIDA DOBLE
Figura 1
El valor v a asignar a las transacciones contables será fundamental para
determinar las ganancias o pérdidas de las transacciones económicas: en términos
algo imprecisos, los resultados vinculados con las mercaderías surgirán de restarle a
las ventas su costo (también pueden darse resultados por tenencia y por compra);
éstos resultarán outputs de TVC. Sintéticamente, las ganancias o pérdidas asociadas
surgen (Pungitore 1988, 37) de las diferencias entre:
a) el precio de venta y de compra de un bien, proporcionado a la cantidad vendida
(resultado operativo);
b) el precio de un bien en distintos momentos (t’ y t’+1), proporcionado a las
cantidad en existencia (resultado por tenencia);
c) el precio efectivo de compra y el precio corriente de mercado de un bien,
proporcionado a las cantidades compradas (resultado por compra).
A cada cuadrante de la Figura 1 le corresponde una de las siguientes
especializaciones:
Figura 2
3. CONCLUSIÓN
Como conclusión podemos decir que la confección de la reconstrucción de TVC,
adicionalmente, modifica y mejora a la propia CPD, al haberse realizado objeciones
fundamentadas al uso de GET como vínculo interteórico, y proponer a otra teoría en
su lugar. Sucede que la metateoría estructuralista posee un herramental poderoso y
diferencial de análisis para ser aplicado a casos concretos como el tratado, mostrando
–una vez más– su vitalidad y plena vigencia.
4. REFERENCIAS BIBLIOGRÁFICAS
Balzer, Wolfgang, Mattessich, Richard (1991), «An Axiomatic Basis of Accounting», Theory and
Decision (30), 213-243.
Balzer, Wolfgang, Mattessich, Richard (2000), «Formalizing the Basis of Accounting» en Wolfgang
Balzer, C. Ulises Moulines y Joseph D. Sneed (eds.), Structuralist Knowledge Representation.
Paradigmatic Examples. Amsterdam, Rodopi, 99-126.
Balzer, Wolfgang, Moulines, C. Ulises, Sneed, Joseph D. (1987), An Architectonic for Science. The
Structuralist Program, Dordrecht, Reidel.
Bunge, Mario (1985), Economía y filosofía, Madrid, Tecnos, 2da. edición.
Flores Barrera, Claudio (2006), La economía. Virtudes e inconvenientes, Santiago, RIL.
Heilbroner, Robert L., Thurow, Lester (1998), Economics Explained, New York, Touchtone.
Porter, Michael E. (1984), Estrategia competitiva, México, C.E.C.S.A.
Porter, Michael E. (1987), Ventaja competitiva, México, C.E.C.S.A.
Pungitore, José Luis (1988), Fundamentación metodológica de la aplicación de valores corrientes en
contabilidad, Tesis doctoral en ciencias económicas (orientación administración), Universidad
de Buenos Aires. Copia digital disponible en http://bibliotecadigital.econ.uba.ar/?
a=d&c=tesis&d=1501-1112_PungitoreJL.
Pungitore, José Luis (2016), Análisis sincrónico de la teoría de la contabilidad por partida doble y su vínculo
con la teoría de valuación contable, Tesis doctoral en epistemología e historia de la ciencia,
Universidad Nacional de Tres de Febrero.
EL EXTRAÑO CASO DEL DR. HARMAN
Y LA INFERENCIA A LA MEJOR EXPLICACIÓN. PRESUPUESTOS
Y ERRORES
RESUMEN: One of the archetypal debates about abduction is the reduction of abduction to
the inference to the best explanation. The followers of such a proposal go back to the
conclusions of Gilbert Harman, in his famous article «The Inference to the Best Explanation».
In that article, Harman raises a series of arguments in favor of his definition of IBE, which, itis
said, corresponds to what would be an abduction. In this communication I intend (1) to present
Harman’s text to show (a) what is really said and (b) what is being fought against. Then, (2) I
compare the correct reading of the article with the general aspects of the abduction research
to show thatthey are two separate topics. My final intention is that, ifsuch a thesis is accepted,
itis no longer necessary to touch this debate in research on abduction.
Palabras clave: abduction; IBE; EI.
1. INTRODUCCIÓN
U no de los debates arquetípicos acerca de la abducción es la reducción de ésta a
la inferencia a la mejor explicación. Los seguidores de tal propuesta se
remontan a las conclusiones de Gilbert Harman, en su famoso artículo «The
Inference to the Best Explanation». En dicho artículo, Harman plantea una serie de
argumentos a favor de su definición de IBE, la cual, se dice, corresponde a lo que sería
una abducción. En esta comunicación pretendo (1) presentar el texto de Harman para
mostrar (a) qué se dice realmente y (b) contra qué se está luchando. Después, (2)
confronto la lectura correcta del artículo con los aspectos generales de las
investigaciones acerca de la abducción para mostrar que son dos temas separados. Mi
intención final es que, si se acepta tal tesis, ya no sea necesario tocar este debate en
las investigaciones sobre la abducción.
3. CONCLUSIONES
¿Qué nos queda? Pues, siguiendo a Harman, que una EI no es lo mismo que una IBE
(que la primera se incluye en la segunda, pero no viceversa) y que la IBE es mejor que
la EI. Por lo tanto, cuando hablamos de inferencia no deductiva tendríamos que hablar
de IBE (inducción, partir de ahora). No obstante, queda claro que una IBE no es una
abducción, pues solamente comparten que son inferencias ampliativas y que, cuando
la hipótesis abductiva es empírica, además, es una explicación. No obstante, la
abducción no es una inferencia que busque la mejor nada y, de hecho, el criterio de
verdad queda relegado a un segundo plano (si lo es, mejor). Para finalizar, con todo lo
dicho, vemos que la abducción tampoco entra en el debate suscitado sobre los casos
Gettier, pues su campo se sitúa un paso por detrás del análisis del papel de la creencia
en el análisis del conocimiento verdadero, así como del criterio de justificación
correcto. Ergo, no, la IBE no es una abducción; son cosas distintas que tratan temas
distintos y, por lo tanto, si no es por motivación histórica, no es necesario tener que
abordar este debate en las futuras investigaciones.
4. REFERENCIAS BIBLIOGRÁFICAS
Atocha, A. (2014), La lógica como herramienta de la razón. Razonamiento ampliativo en la creatividad, la
cognición y la inferencia, UK, Milton Keynes.
Atocha, A. (2006), Abductive Reasoning: Logical Investigations into Discovery and Explanation.
Netherlands, Springer.
Chisholm, R. M. (1989), Theory of Knowledge, Englewood Cliffs, NJ, Prentice Hall.
Gabbay, D y Woods, J. (2005), The Reach of Abduction. Insight and Trial, A Practical Logic of Cognitive
Systems, vol. 2, Amsterdam, Elsevier.
Gettier, E. (1963), «Is Justified True Belief Knowledge?», Analysis (23), 121-123.
Harman, G. (1965). «The Inference to the Best Explanation», The Philosophical Review (74, 1), 88-95.
Magnani, L. (2015), «The eco-cognitive model of abduction “Aπαγσγη” now: Naturalizing the
logic of abduction», Journal of Applied Logic (13), 285-315.
Magnani, L. (2009), Abductive Cognition. The Epistemological and Eco-Cognitive Dimensions of Hypothetical
Reasoning, Heidelberg/Berlin, Springer.
Magnani, L. (2001), Abduction, Reason, and Science: Processes ofDiscovery and Explanation.
EL COMPROMISO REALISTA DE LOS GÉNEROS NATURALES EN
LA FILOSOFÍA DE LA CIENCIA
RESUMEN: El debate actual sobre los géneros naturales en filosofía de la ciencia abarca un
abanico muy variado de propuestas, en ocasiones incompatibles entre sí. Uno de los pocos
puntos de consenso es la asunción de algún tipo de compromiso realista. Sin embargo, el modo
de entender y justificar dicho compromiso varía mucho de unas propuestas a otras.
Así, pueden encontrarse propuestas que fundamentan el realismo a partir de esencias
intrínsecas, de mecanismos causales, o propuestas que prescinden de todo compromiso
metafísico y se centran en justificaciones epistémicas. Sin embargo, en todos los casos existen
problemas para justificar el realismo. Ante esta situación algunos autores proponen abandonar
el concepto de género natural. No obstante, con ello no se resuelve la dicotomía
realismo/antirrealismo subyacente.
Hilary Putnam fue especialmente consciente de los riesgos de asumir tal dicotomía. A partir
de su segunda etapa propone un realismo que supere la idea de una única y completa
descripción del mundo. Dicha concepción puede servir de fundamento teórico a las propuestas
sobre géneros naturales menos comprometidas metafísicamente, manteniendo el realismo de
los géneros naturales sin caer en el escepticismo convencionalista.
Palabras clave: esencialismo; causalidad; realismo metafísico; realismo del sentido común;
antirrealismo.
1. INTRODUCCIÓN
Desde que Quine, Putnam y Kripke realizaran sus primeras aportaciones sobre los
géneros naturales se ha producido un intenso debate sobre diferentes cuestiones
relacionadas con los mismos. Esta situación ha derivado en una multiplicidad de
teorías frecuentemente incompatibles entre sí. De hecho, entre los pocos puntos
compartidos por todas ellas podemos destacar dos: 1) los géneros naturales justifican
explicaciones, proyecciones e inferencias válidas, y 2) los géneros naturales reflejan,
al menos parcialmente, la estructura real del mundo, con independencia de los
intereses y valores de los investigadores.
Existe, por tanto, un cierto grado de compromiso realista en todas las teorías sobre
los géneros naturales. Dicho compromiso es especialmente importante si se considera
que el convencionalismo puede asumir el primero de los puntos señalados, es decir,
que los géneros naturales justifiquen explicaciones, proyecciones e inferencias
válidas. Sin embargo, más allá de este acuerdo existen múltiples formas de justificar
dicho compromiso. El objetivo de la presente comunicación es exponer las bases sobre
las que se asientan los presupuestos realistas de las distintas teorías sobre los géneros
naturales, así como las dificultades a las que deben enfrentarse. Por último se
pretende mostrar la problemática subyacente partiendo de la filosofía del último
Putnam, así como posibles líneas de investigación.
Existen múltiples teorías sobre los géneros naturales, y su clasificación puede
realizarse atendiendo a diferentes criterios: grado de compromiso metafísico,
ausencia/presencia de esencias de algún tipo, etc. Tomando como criterio el modo de
justificar el compromiso realista pueden establecerse tres tipos de teorías: las teorías
que justifican el realismo basándose en esencias intrínsecas, las que emplean
mecanismos causales prescindiendo de esencias intrínsecas, y las que prescinden
tanto de esencias como de mecanismos causales. Por último se encuentran las teorías
convencionalistas, caracterizadas por negar el realismo acerca de los géneros
naturales. Con ello se niega su naturalidad, pasando a ser descritos como géneros
meramente convencionales.
4. REFERENCIAS BIBLIOGRÁFICAS
Amilburu, Alba (2015), La Naturaleza de los géneros Naturales, Tesis Doctoral, Universidad del País
Vasco.
Boyd, Richard (2010), «Realism, Natural Kinds, and Philosophical Methods», en Helen Bebee y Nigel
Sabbarton-Leary (eds), The Semantics and Methaphysics of Natural Kinds, New York, Taylor and
Francis group, 212-234.
Brigandt, I. (2011), «Natural kinds and concepts: a pragmatist and methodologically naturalistic
account», en J.K. Knowles y H. Rydenflet (eds), Pragamatism, science and naturalism, Berlin, Peter
Lang Publishing, 141-185.
Craver, Carl F. (2009), «Mechanisms and Natural Kinds», Philosophical Psychology, (22), 575-594.
Dupré, John. (2006), Human and Other Animals, Oxford, Oxford University Press.
Ellis, Bryan. (2001), Scientific Essentialism, Cambridge, Cambridge University Press.
Khalidi, Muhammad Ali (2013), Natural Categories and Human Kinds, Cambridge, Cambridge
University Press.
Hacking, Ian (2007), «Natural Kinds: Rosy Dawn, Scholastic Twilight», Royal Institute of Philosophy
Suplement 61, 203-209.
Putnam, Hilary (1994), Las Mil Caras del Realismo, Pensamiento Contemporáneo 31, Barcelona,
Paidós.
Putnam, Hilary (2000), Sentido, Sinsentido y los Sentidos, Pensamiento Cotemporáneo 61, Barcelona,
Paidós.
Slater, Matthew H. (2014), «Natural Kindness» The British Journal for the Philosophy of Science 66 (2),
375-411.
IV. HISTORIA DE LA CIENCIA
«FILOSOFÍA DEL ENTENDIMIENTO» DE ANDRÉS BELLO Y SU
MUY LIMITADA RECEPCIÓN FILOSÓFICA
1. INTRODUCCIÓN
L o que ha pasado con la obra filosófica de Andrés Bello, es un claro contraejemplo
de la explicación que se suele escuchar en América Latina sobre por qué no se
destaca en nuestro propio continente a filósofos latinoamericanos, y que se
puede escuchar expresado en formulas tales como que «en América Latina no
valoramos nuestra producción intelectual», pues una peculiaridad muy importante
del trabajo de Bello es toda la repercusión, admiración y estudio que ha recibido tanto
sus aportes jurídicos como en gramática, y esto no solo en Venezuela y en Chile, sino
también en otros países latinoamericanos y en España. Incluso se puede llegar a decir
que han tenido más impacto sus obras literarias y sobre literatura (en espacial sobre el
Mio Cid). De hecho, muy pocos autores teóricos latinoamericanos cuentan con dos
ediciones diferentes de sus obras completas (¿o quizás es el único?), así como algún
centro de estudio dedicados a su obra (la Casa de Bello en Caracas); varias
universidades llevan su nombre, o que tienen su imagen como la de «padre fundador»,
como la Universidad de Chile y las derivadas de ella. Incluso se ha forjado el término
«bellista», que está en el diccionario de la RAE, para los especialistas en su vida y obra.
A la ciudad de Bello, en el Departamento de Antioquia en Colombia, se le cambió el
nombre en su honor[1]. Y en cuanto a homenajes, hay que agregar las diversas
instituciones educativas, así como calles o avenidas, que se llaman «Andrés Bello» en
Venezuela y Chile, en otros países latinoamericanos, e incluso en España (la familia de
Bello era de origen canario). Es evidente que en el caso de quien muchas veces ha sido
llamado «sabio americano» no se trata de falta de reconocimiento o valoración de su
estatura intelectual.
Esto hace particularmente interesante la pregunta con respecto a su obra
filosófica la cual muy poco se ha beneficiado de la «admiración» por sus Principios de
Derecho de Gentes, su Código Civil, por su Gramática y su rol como primer rector de la
Universidad de Chile. Esto a pesar de las muy elogiosas introducciones que Gaos y
García Baca hicieron la obra Filosofía del Entendimiento (publicada póstumamente en
1881, si bien partes se habían publicado en 1843 y 1844 en El Crepúsculo, periódico
literario y científico), obra igualmente o quizás más monumental que las otras de
Bello, lo cual la convierte en una «ilustre desconocida». En efecto, resulta muy
interesante preguntarse por qué ha sido así, a pesar, insisto, de los grandes elogios de
Amunátegui, Meléndez Pelayo, Gaos y García Baca, así como en el libro de Ardao:
Andres Bello, Filosofo de 1986; junto con artículos como los de Fornet Betacourt (1979) y
de Gutiérrez Girardot (1982), a los cuales hare referencia a continuación. Esto además
de textos más recientes en que se hace una detallada presentación de los distintos
aspectos de la obra intelectual de Bello (por. ej. Bocaz 2000, Jaksić 2001, Ossandón y
Ruiz 2013), a los cuales no me referiré en esta ocasión por motivos de espacio.
REFERENCIAS BIBLIOGRÁFICAS
Ardao, Arturo (1981), Andrés Bello, Filósofo, Caracas, Biblioteca de la Academia Nacional de Historia.
Bello, Andrés (1984), Philosophy of the Understanding, trans. by O. Carlos Stoetzer, Washington,
D.C., General Secretariat, Organization of American States.
Bello, Andrés (2006), Filosofía del Entendimiento, México, Fondo de Cultura Económica, 1.ª. ed. 1948,
2.ª ed. 2006.
Bello, Andrés (1981), Obras Completas, vol. III. Obra Filosófica. Caracas, La Casa de Bello.
Bocaz, Luis (2000), Andrés Bello, una biografía Intelectual, Bogotá, Edición del Convenio Andrés Bello.
Fornet Betancourt, Raúl (1979), «Presentación filosófica de los pensadores hispanoamericanos:
Andrés Bello y José Enrique Rodó», Cuadernos Salmantinos de Filosofía 6, 1979: pp. 399-442.
Gaos, José, [1948], «Introducción» en Bello (2006), pp. 7-102.
García Aponte, Isaias (1964) Andrés Bello, contribución al estudio de la ideas en América, Panamá, Univ.
de Panamá, disponible en http://bdigital.binal.ac.pa/bdp/andresbello1.pdf hasta
andresbello7.pdf.
García Baca, Juan David (1981) «Prologo» e «Introducción General a las Obras Filosóficas de Andrés
Bello» en Bello 1981, pp. IX-LXXX.
Gutiérrez Girardot, Rafael (1982), «Andrés Bello y la Filosofía», Diálogos Hispánicos de Amsterdam,
num. 3, 1982, pp. 5-14.
Jaksić, Iván (2001), Andrés Bello, La pasión por el orden, Santiago, Editorial Universitaria.
Jaksić, Iván (2013), Rebeldes Académicos; La filosofía chilena desde la Independenciaa hasta 1989,
Santiago, Ediciones Universidad Diego Portales. (Traducción con mejoras de Jaksić, Iván,
Academic Revels in Chile, The Role of Philosophy in Higher Education and Politics, Albany, State
University of New York, 1989).
Larroyo, Francisco (1989), La Filosofía Iberoamericana. Historia, Formas, Temas, Polémica, Realizaciones,
México, Porrua, [1.ª. ed. 1969] 3.ª ed. 1989.
Ossandón, C. / Ruiz, C. (coord.) (2013), Andrés Bello, Filosofía pública y política de la letra, Santiago,
Fondo de Cultura Económica.
Miró Quesada, Francisco (1974), Despertar y proyecto del filosofar latinoamericano, México, Fon. Cul.
Eco.
Miró Quesada, Francisco (1981), Proyecto y Realización del filosofar latinoamericano, México, Fon. Cul.
Eco.
[1] Aunque casi ningún habitante de ella sabe porque se llama Bello, como lo pude constatar in situ
recientemente.
[2]«Bello fue filósofo: poco metafísico, ciertamente, y prevenido en demasía contra las que llamaba
quimeras ontológicas, de las cuales le apartaban de consumo el sentido de la realidad concreta, en él muy
poderoso, su temprana afición a las ciencias experimentales, la estrecha familiaridad que por muchos años
mantuvo con la cultura inglesa, el carácter especial del pueblo para el cual escribía, y finalmente, sus
hábitos de jurisconsulto romanista y sus tareas y preocupaciones de legislador. Pero fue psicólogo
penetrante y agudo; paciente observador de los fenómenos de la sensibilidad y del entendimiento». (Apud
Gaos [1948] 2006, 9 s. y García Bacca 1981, LXXIX)
[3] Eugenio Orrego Vicuña, P. Lira Urquieta, Gabriel Ménedez Placarte, German Arciniegas, Pedro
Henríquez Ureña, Luis Recasens Siches, y R. Insúa Rodriguéz.
[4] «El único Diccionario de Filosofía de autor de lengua española, el muy justamente celebrado y
difundido del profesor J. Ferrater Mora, México, 1941, 2.ª ed., ibid, 1944, en ninguna de sus dos ediciones
incluye a Bello entre los pensadores hispanoamericanos a quienes dedica sendos artículos. En ninguna de la
bibliografías dadas por los citados libros de Heriquez Ureña, Lira, Méndez Placarte, Muñoz y Rex Crawford,
ni en la del Research Assistant in the División of Intellectual Cooperation, Pan American Union, Mr. E.
Lassalle, Philosophic Thought in Latin America, A Partial Bibliography (mimeo.), se encuentra mencionado
ningún libro ni articulo cuyo título prometa un estudio sobre el Bello filósofo». (Gaos [1948] 2006, 20, n. 18)
[5] «Bello encarna el modelo de pensamiento de esta época. Dominado por el afán de lo nuevo,
proclama la mayoría de edad de América, no sin claro discernimiento así de lo alcanzado como de lo mucho
por hacer en el concierto de la cultura universal. Mente perspicaz, clara, sistemática, polígrafo de toda
erudición, que no estéril receptáculo, pone su saber al servicio de inéditas conquistas contribuyendo de tal
suerte a la mejor formación académica del hombre americano». (Larroyo [1969] 1989, 83 s.)
[6] «He allí por qué el pensamiento de Bello difícilmente puede ser comprendido fuera de la estructura
social de la América Latina de comienzos del siglo XIX, de la situación particular de una casta criolla que se
debate entre sus orígenes y sus conexiones con una burguesía naciente, de una parte y, de otra, la
aceptación de una República que amenaza a cada momento sus privilegios de caracter feudal, debatiéndose,
en consecuencia, entre su acción revolucionaria y su pensamiento conservador; fuera, en fin, de la
existencia de una corriente positivista, expresión ideológica radical de la visión del inundo de esa burguesía
naciente, y de la condenación de esa corriente por la vieja casta oligárquica. Por otra parte, la significación
auténtica del pensamiento de Bello se aclara en particular desde que se compara la interpretación
romántica de una clase media revolucionaria (generación chilena de 1843), a la interpretación moralisante
de un Juan Egaña, representante típico del pensamiento ilustrado, a la interpretación de un Ventura Marín,
quien ve en Bello un pensador peligroso y anarquista (expresiones ambas de una oligarquía sólidamente
instalada en el poder, hostil a todo extremismo), y, en fin, a la interpretación positivista de un Lastarria o de
un Echeverría, contrapartida rigurosa de la interpretación del racionalismo ilustrado, como la burguesía
ascendida al poder por su fusión con la oligarquía era la contrapartida de la clase media revolucionaria de la
primera mitad del siglo XIX». (García Aponte 1962, 236)
CICLO EPISTÉMICO. EL ORIGENTECNOLÓGICO DEL
CONOCIMIENTO MÉDICO
1. INTRODUCCIÓN
E n medicina podemos considerar dos componentes básicos: la clínica médica: que
terapéutica:aque
caracteriza la pretende
enfermedad,
modificar
e involucra al diagnóstico y al pronóstico. Y la
el curso de la dolencia. (Lorenzano 1977)
Hasta que se mantuvo vigente el paradigma galénico (siglo XIX), el médico no
pretendía curar al paciente. Su función se limitaba a colaborar con la naturaleza para
restablecer el equilibrio que se había perdido. Modificar el curso de la dolencia y
accionar en contra de los designios de la naturaleza, fueron pretensiones que solo
aparecieron después de una revolución en la terapia (tecnología) iniciada por la
cirugía a finales del siglo XIX.
La interacción entre ciencia (clínica) y tecnología (acción terapéutica) produjo un
cambio radical en el modelo y en la forma de conceptualizar la acción médica. La
unión entre el paradigma que venía construyendo la cirugía junto al que elaboraba la
clínica, devino en un sistema de ciencia y tecnología que es el de la medicina moderna.
(Echeverría 2003)
El nuevo modelo produjo consecuencias bien visibles dentro y fuera del área
médica. Por un lado, la medicina se desarrolló como nunca antes en su historia: en
ciento cincuenta años se consiguió duplicar la expectativa de vida dentro de los países
desarrollados. Sin embargo, y por contrapartida, la medicina parece haber quedado
reducida a una fábrica productora de terapias, cuyos resultados ya no se miden
epistémicamente, sino de acuerdo a su significación comercial. Tema interesante para
tratar pero, que, por cuestiones de espacio no será posible de abordar. Solo llamamos
la atención, porque surge como consecuencia de considerar a la medicina como
conocimiento tecnológico.
3. EL AVANCE DE LA CIRUGÍA
Hasta el siglo XIX, el cirujano se ocupaba de enfermedades de la parte externa del
cuerpo. A él se recurría en caso de fracturas, hernias, extracciones dentales, heridas,
luxaciones, amputaciones y tumores superficiales. Los más audaces se dedicaban a
extraer cataratas, piedras de la vejiga, o de la cabeza con el propósito de curar la
demencia.
Siempre se ha dicho que el avance que tuvo la cirugía durante el siglo XIX fue
debido a la innovación tecnológica que trajo consigo la anestesia y la antisepsia. Si
bien adscribimos a la idea, debemos reconocer que no alcanzan esas dos innovaciones
para dar cuenta de la transformación que tuvo la cirugía durante ese siglo. Tampoco
es suficiente explicarlo por el avance atrevido que la cirugía había tenido sobre los
órganos internos, ya que las prematuras muertes de esos pacientes refutan esta
hipótesis.
Debemos reconocer entonces, cuatro hitos importantes ocurridos durante el siglo
XVIII y el XIX, que fueron los que «realmente» cambiaron el curso de la medicina.
1. La incorporación de la cirugía como parte de la enseñanza médica universitaria.
2. El abandono de la teoría de los humores como origen de la enfermedad y el
ingreso de la concepción orgánica y fisiopatológica.
3. La aparición de la anestesia y el control del dolor.
4. La lucha contra la infección y la consecuente baja de la mortalidad operatoria.
Durante el siglo XIX, el criterio quirúrgico cambia y lo que hasta el momento
servía para clasificar a las enfermedades externas se comenzó a aplicar también en las
internas. Y una idea revolucionaria comenzó a surgir de la cabeza de algunos
cirujanos. ¿Sería posible extraer un órgano interno enfermo para conseguir la
curación del paciente?
6. CICLO EPISTÉMICO
Un ciclo, es una serie de fases por las que pasa un fenómeno, que se despliega en
un orden determinado hasta que se llega a un estado, a partir del cual vuelve a
repetirse, en el mismo nivel o en un estrato superior. El ciclo que nos interesa parte de
la acción del cirujano, cuando al intervenir produce una reacción orgánica inesperada.
En el enfermo ocurre una anomalía. Una novedad que por su interés pasa a ser
investigada por la comunidad científica. Luego de pasar por las distintas fases, el ciclo
finaliza con el aporte de un conocimiento nuevo acerca de la anatomía o la fisiología
del sistema en cuestión. Así descripto, el ciclo explica uno de los modos posibles de
producción conceptual derivado de la acción terapéutica. Ciclo que muestra la íntima
relación y la mutua dependencia entre tecnología e investigación básica.
Acción quirúrgica ~~~ fallo o novedad~~~ análisis y explicación de los hechos ~~~
Nuevo conocimiento.
Con el objeto de comprender esta idea fuimos a buscar el ejemplar paradigmático.
Cuando el procedimiento se utilizó por primera vez, por su ejemplar paradigmático.
Ocurrió durante la investigación iniciada por Emil Kocher en el periodo que va entre
1884 y 1892. Lo consideramos paradigmático, porque fue el primer caso de una
investigación colaborativa a partir del concepto de fallo dentro de la comunidad
médica.
Kocher estaba indagando lo sucedido con los operados de tiroides, quienes
enfermaban gravemente luego de la cirugía de extracción total del órgano. Se
elaboraron hipótesis, se realizaron experimentos, se revisaron investigaciones
previas, todo en pos de resolver el enigma de lo que estaba sucediendo con los
enfermos, que luego de operarlos enlentecían sus funciones vitales.
Podemos esquematizarlo como un ciclo. Su punto de partida es el momento en que
los cirujanos comienzan a realizar tiroidectomías totales con el objeto de curar el
bocio. (1) Hay una anatomía y fisiología conocida. En ella, la tiroides no tiene, o no se
comprende aún su función. (2 y 3) Existe una enfermedad tumoral de la tiroides –el
bocio–, que se trata mediante la extracción completa del órgano. (4) A consecuencia
de la cirugía, los operados enferman de una nueva dolencia hasta el momento
desconocida. Se la llama caquexia estrumipriva o mixedema operatorio –lo que hoy se
conoce como hipotiroidismo–. (5) La comunidad médica traza hipótesis para explicar
lo ocurrido, se realizan experimentos y se revisan investigaciones previas. (6) Se
descubren las propiedades de un producto que contiene en su interior la tiroides, los
jugos tiroideos (hormonas), que volcados a la sangre actúan a distancias sobre distintos
órganos y tejidos. Cuya falta provoca los síntomas propios del hipotiroidismo. (7) Se le
administra a los operados extractos de tiroides como terapia de reemplazo y los
enfermos se curan. (8) Hay un nuevo conocimiento sobre el funcionamiento de la
tiroides que modifica lo que se sabía. La tiroides se convierte en glándula al
descubrirse que su función es elaborar sustancias para ser volcadas al interior de la
sangre –glándula de secreción interna. (9) Es un salto dentro del conocimiento de la
fisiología tiroidea, al incorporarse un nuevo saber que está por encima del nivel
anterior, que pasa a formar parte de la anatomía y fisiología normal, pero en una
escala superior (10+1). El ciclo continúa en forma continua hasta su estabilización (11).
Esquematizando:
Como modelo conceptual el ciclo epistémico sirve para explicar el modo en que
ciertos conocimientos se elaboran dentro del área médica. Se exponen algunos casos
modernos, como el inicio de los trasplantes de piel en 1912, y la investigación actual
acerca de la curación de la diabetes del tipo II luego del bypass gástrico (Barker y
Markmann 2013) (Casanova y Espada 1990) (Rubino, Moo, Rosen, Dakin y Pomp 2009).
Esperamos que futuros investigadores vayan agregando nuevos ejemplos.
7. REFERENCIAS BIBLIOGRÁFICAS
Absolon, K. B. (1984), Developmental Technology of Gastric Surgery, Rockville. Maryland, Kabel
Publishers.
Absolon, K. B. (1987), Surgeon’surgeon, Theodor Billroth. 1829-1894. (Vol. III), Kansas, Coronado Press.
Barker, C. F., & Markmann, J. F. (2013), Historical Overview of Transplantation, Cold Spring Harbor
Perspectives in Medicine, 3(4), a014977. http://doi.org/10.1101/cshperspect.a014977
Casanova, J. M., & Espada, M. R. A. (1990), Medawar, Peter, Brian (1915-1987), INMUNOLOGIA.
EDICIONES DOYMA S/A TRAVDE GRACIA 17-21, 08021 BARCELONA, SPAIN.
Chullmir, R; Lorenzano, C. (2014), La Cirugía como Disciplina Científica. Cordoba, Argentina. Retrieved
from http://conferencias.unc.edu.ar/index.php/afjor/AfhicIX/paper/view/2319
Chullmir, R; Lorenzano, C. (2015), Análisis histórico y metodológico de una teoría infecciosa fallida, La
Falda, Cordoba.
Duffy, T. P. (2011), The flexner report-100 years later, Yale J Biol Med, 84(3), 269-276.
Echeverría, J. (2003), La revolución tecnocientífica, Fondo de Cultura Económica de España Madrid.
Hamberger, B. (1997), Emil Theodor Kocher, Retrieved September 16, 2015, from
https://www.nobelprize.org/nobel_prizes/medicine/laureates/1909/kocher-article.html
Lorenzano, C.J. (1977), Análisis metodológico de una ciencia empírica, Diánoia, XXIII(23), 124-137.
Moore, W. (2010), The knife man, Random House.
Rubino, F., Moo, T.-A., Rosen, D.J., Dakin, G. F., & Pomp, A. (2009), Diabetes surgery: a new approach
to an old disease, Diabetes Care, 32(suppl 2), S368-S372.
Zimmerman, L. M., & Veith, I. (1993), Great ideas in the history of surgery, Norman Publishing.
EMILIO HERRERA LINARES Y SU «MODELO COSMOLÓGICO»
ENTRE DESCARTES Y EINSTEIN
RESUMEN: Formado en la Academia de Ingenieros del Ejército, desarrolló una labor científica
no experimental, para dar un nuevo enfoque teórico a la física del espacio.
En 1915, expuso a la Real Academia de Ciencias su Hipótesis sobre la constitución del Universo, en
la que hizo una original aportación: la geometría del espacio bien podía ser curva en vez de
plana, y por tanto no-euclidea y que existía una cuarta dimensión: otra dirección perpendicular
a todas las del espacio tridimensional, a x, y, z. Desarrolló su modelo cosmológico sobre
fundamentos cartesianos, el Éter y los torbellinos, intentaba así dar respuesta a la inexactitud
de la Ley de gravitación de Newton respecto al movimiento de los planetas.
En la Teoría General de la Relatividad (1916), Einstein enunciaba una cuarta dimensión, el
tiempo, rompiendo las convicciones sobre las que se había construido la Ciencia hasta ese
momento. El Éter desaparece y los principios de intuición y causalidad no tienen sentido, lo que
le planteó a Herrera un conflicto personal como creyente.
Herrera continuó desarrollando su teoría cosmológica e intentando armonizar su visión
cartesiana del universo con la de Einstein, impulsado por la convicción de que la unión entre fe
y razón era posible.
Palabras clave: Relatividad; Hiperespacio; Éter; hipergeometría.
INTRODUCCIÓN
apreferencia
sólida
elección
formación
de
a lalatécnica,
matemática
carreraes de ingeniero militar condicionó su formación. Dio
L
1.
decir, antepuso lo práctico a lo teórico. Ahora bien, la
unido a estar extraordinariamente dotado para
esta, le permitió la comprensión tanto de las teorías más complejas, como la
aplicación eficaz de esta herramienta en cualquier dirección en que fijó su interés.
La cosmología, ciencia que estudia el origen, la evolución y el destino del Universo,
es objeto de su interés personal, y está al margen de sus responsabilidades como
oficial del Servicio de Aeronáutica del Ejército. Enlaza en ocasiones estas dos facetas,
él lo expresa en «unir la afición a la obligación» (Herrera 1933, 18).
La intención de esta comunicación es la de mostrar una de sus líneas de trabajo
que responden a inquietudes que se deben a una transversalidad técnico-científica. Se
autodenomina investigador transversal de la ciencia con un carácter completamente
especulativo, basándose en los descubrimientos de la ciencia experimental: «… y a los
transversales nos hace salirnos fuera de la realidad tangible para inquirir las leyes que regirían
los fenómenos mecánicos en espacios de más de tres dimensiones, o en tiempo de más de una, o
en uno y otro de cualidades de extensión distintas de las euclídeas» (Herrera 1933, 14).
2. SUTEORÍA COSMOLÓGICA
En 1904 a la edad de 25 años, mientras estaba destinado en el Rif, se despertó en
Herrera el interés por la hipergeometría y la hipermecánica, había encontrado la
motivación para elaborar su propia visión científica (Herrera 1988, 43).
En 1905 Albert Einstein publicaba en la revista científica Annalen der Physik los
fundamentos de su teoría Especial de la Relatividad, cuya novedosa aportación era la
relación entre la masa y la energía de un cuerpo cuando se libera ésta en forma de
radiación, expresada en la ecuación E=m.c2; en la que c, la velocidad de la luz, es una
constante. Publicó una serie de artículos científicos que adjetivarían la ciencia, hasta
entonces conocida como Clásica o pre-relativista, sin embargo la teoría Especial de la
Relatividad no era aplicable a la gravitación.
Cuando en 1910 Herrera dio a conocer una primera versión de su modelo
cosmológico estaba en vigor la concepción moderna del Universo: infinito y estático,
basado en la física newtoniana. Herrera planteó un Universo de tres dimensiones
dentro de un hiperespacio de cuatro dimensiones que llamó la atención de la revista
de astronomía francesa Revue du Ciel. Continuando en esa línea de trabajo, en 1915 dio
a conocer en la Academia de Ciencias el estudio Hipótesis sobre la constitución del
Universo, antes de que Einstein hiciera pública la Teoría General de la Relatividad en
1916.
Para Herrera, y el mundo científico en general, las fuerzas gravitacionales que
actuaban en el espacio no podían ser explicadas por las leyes newtonianas y las
anomalías constatadas de la mecánica celeste tampoco, incluso la curvatura de los
rayos de luz en un campo gravitacional; sugería a continuación que la métrica del
espacio era no-euclidea y curvada en vez de euclidea y plana.
Planteaba sus hipótesis con la convicción de que «los fenómenos observados en el
mundo físico, la mayor parte de los cuales carecen de explicación satisfactoria si no se
suponen más de tres dimensiones a la extensión» del Universo. Por tanto una de ellas
era la existencia de una cuarta dimensión perpendicular a x, y, z, que corresponden al
mundo tridimensional en el que vivimos: «quizá el espacio curvo que constituye
nuestro Universo no sea más que un elemento material que, con una infinidad de
otros análogos, formen un cuerpo de cuatro dimensiones que a su vez esté situado en
un hiperespacio curvo elástico, dentro de la extensión de quinto orden y así hasta
llegar a la extensión de infinitas dimensiones que las comprende a todas» (Herrera
1916, 388).
Para Herrera puesto que los astros están en movimiento el Universo también lo
está. La gravitación era consecuencia del movimiento de rotación del espacio etéreo al
engendrar fuerzas centrífugas en todas las masas sumergidas en él.
La teoría de Herrera se basa en la existencia del Éter: «la naturaleza del éter es
desconocida, no lo son algunas de sus propiedades como el ser extremadamente
elástico, imponderable y ofrecer resistencia al movimiento de las superficies
sumergidas o quizás apoyadas en él» (Herrera 1916, 388).
Era, el éter, una solución de compromiso aportada por Descartes en el S.XVII, y
sirvió para explicar que la luz, de naturaleza ondulatoria, pudiese desplazarse por el
espacio. Esta teoría se mantuvo irreductible hasta finales del S.XIX, como uno de los
pilares de la física. Fue una aportación teórica, no demostrada experimentalmente,
que sustituía a la atmosfera terrestre en el espacio exterior.
El modelo cosmológico de Herrera despertó interés en el exterior y fue aceptado y
reconocido por la Academia de Ciencias francesa y la Royal Society de Londres, su
modelo no pasó desapercibido pero el debate en torno a la teoría de la Relatividad lo
eclipsó de alguna manera.
La aparición de la Teoría General de la Relatividad atrajo rápidamente el interés
del mundo científico y al poco el de la prensa. La teoría General con sus ecuaciones de
campo abarcaban toda la física y aportaba otro modelo cosmológico y gracias a nuevos
descubrimientos y observaciones llegarían hasta el gran público.
La introducción por parte del propio Einstein, en 1917, de una «constante
cosmológica» para adaptar las ecuaciones del campo de la Relatividad General al
espacio esférico, un espacio hiperesférico, aproxima las dos concepciones, la de
Herrera: un espacio curvo en el que las estrellas con sus diferentes sistemas
planetarios describen orbitas aproximadamente elípticas alrededor de una línea ideal
y en el que se dan periodos de tiempo cíclicos pues el Universo se desintegrará y se
formará de nuevo; para Einstein el espacio se cierra aunque no tiene límites, y el
tiempo constituye una línea que se prolonga hacia el pasado y el futuro de forma
infinita.
Sin embargo la «constante cosmológica», fue contestada por físicos relativistas de
manera continuada, Sitter fue el primero. Ellos interpretaron mejor que Einstein la
aplicación de la Relatividad a la Cosmologia, más adelante reconoció que se había
equivocado. Herrera no formó parte de este grupo y por tanto no es recordado dentro
de la historia de la difusión de la Relatividad.
Friedman en 1922 concluyó que el Universo era dinámico y en expansión. En 1923
el astrónomo Hubble descubrió que había estrellas que se alejaban a gran velocidad y
al estudiarse el fenómeno desde la nueva física relativista confirmó a Friedman (Otero
2007, 6).
Herrera no había pasado por alto en su nueva teoría cosmológica la observación de
estrellas, detectadas, desde 1912, a velocidades de 325 km/s frente a los «40 Km/s
calculados por Newcomb para las fuerzas gravitacionales» y la ausencia de centros de
atracción capaces de causar estos movimientos.
Coincidieron ambas teorías, la de Herrera y la de Einstein, en dos hipótesis: la
existencia de una cuarta dimensión y que la luz seguía líneas geodésicas. Para Einstein
«se define como el camino seguido por una partícula sobre la que no actúa ninguna
fuerza electromagnética» en el vacío perfecto (González 1986, 17). Mientras que para
Herrera «Las vibraciones trasversales y normales del espacio etéreo, explican la
propagación de la energía luminosa y electro-magnética…» (Herrera 1916, 383).
Aportan explicaciones diferentes para un mismo fenómeno.
Para Einstein, la cuarta dimensión era el tiempo, (dimensión espacio-tiempo)
ds2= dx2 + dy2 + dz2 – c2dt2
La consecuencia es que al aproximarnos a la velocidad de la luz el tiempo se
ralentiza. Esta afirmación: que el tiempo es variable y cambia constantemente, estaba
en contra de la intuición y de la causalidad, principios sobre los que los científicos
habían ido construyendo la ciencia. La causalidad está íntimamente relacionada con el
tiempo pero si éste es relativo y depende de la velocidad –deja de ser absoluto–, el
principio queda hecho añicos. En los escritos de Herrera aparecen, a lo largo de los
años, referencias continuas al conflicto que le plantean algunos aspectos de la
relatividad con estos dos principios que para él eran irrenunciables.
Las teorías de Einstein no llegaron a dar una explicación a la mecánica de las
partículas elementales, pero si de la del Universo. En 1905 propuso el concepto de
fotón para explicar un fenómeno observado experimentalmente[1] el efecto
fotoeléctrico, que es coherente con la fórmula que relaciona la masa con la energía
(1907). Puesto que el fotón es materia (naturaleza corpuscular de la luz), está afectada
por la gravedad de los planetas, y es la causa de la desviación de la trayectoria de la
luz que llega a la tierra.
La confirmación en 1919 de las predicciones sobre la desviación de la luz de las
estrellas en el campo gravitatorio solar, mediante un ensayo llevado a cabo por el
astrónomo británico Eddington, aprovechando un eclipse de sol, se convirtió en un
fenómeno mediático que ocupó las portadas de los periódicos. La Teoría de la
Relatividad se confirmaba por primera vez con nuevos ensayos y observaciones. Las
dudas que a Herrera le surgieron sobre la validez del ensayo que lo demostraba, se las
planteó directamente al astrónomo británico, produciéndose un intercambio de
correspondencia en el que Herrera no quedó convencido (Herrera 1923, 35).
La Teoría Especial y General de la Relatividad generó escepticismo entre algunos
de los científicos españoles que entre otras cosas no entendían por qué la velocidad de
la luz no podía ser superior a la establecida por Einstein[2], a lo que se unía la
eliminación del éter y la destrucción de los principios sobre los que se había
sustentado la investigación científica hasta entonces. En su teoría Herrera acepta el
límite máximo de la velocidad de la luz c, solo como un «límite que parece impuesto
por la naturaleza de la materia en movimiento» (Herrera 1917, 229).
La relatividad tuvo profundas implicaciones filosóficas. La isotropía del Universo
relativista generó mucha controversia, «de este modelo se deduce que la Tierra no
está ubicada en un lugar privilegiado del cosmos dado que las propiedades del
Universo son las mismas para todos los observadores y en todas direcciones» (Denia
2017, 102).
4. HERRERA Y EINSTEIN
Herrera tuvo inicialmente una opinión crítica sobre la Relatividad expresada
desde 1919, en una serie de intervenciones y publicaciones en el periodo que precede
a la venida de Einstein a España. Cuando llegó era una personalidad de fama mundial
que había obtenido el premio Nobel en 1922.
Una vez fijada la visita a España de Einstein, en el seno de la Sociedad Matemática,
Herrera, propone la conveniencia de aprovechar el tiempo que iban a tener disponible
con él para plantearle de manera ordenada una serie de cuestiones pendientes sobre
sus teorías.
El 7 de marzo de 1923 Einstein es nombrado socio de honor de la Sociedad
Matemática, al comenzar, Herrera se dirigió a este en alemán y durante diez minutos
le demostró que conocía y comprendía la teoría de la relatividad. Durante las dos
horas siguientes Einstein se enfrentó a las preguntas preparadas por los científicos e
ingenieros: Julio Palacios, Blas Cabrera, Vicente Burgaleta, Fernando Peña, Juan López
Soler, Pedro González Quijano, Manuel Lucini, José María Plans… (Glick 1979, 15).
Aunque para algunos españoles la teoría de la Relatividad solo fue aceptada a
medias, durante los años veinte supuso un estímulo no solo para los científicos sino
también para muchos ingenieros que querían hacer avanzar la situación de la ciencia
y la técnica en España, en línea con la idea de modernidad y progreso de que estaban
imbuidos. La visita de Einstein animaba a cortar con un pasado científico desolador, el
del siglo XIX, y ayudaba a vislumbrar el futuro con esperanza de renovación.
Herrera siempre defenderá a Einstein y su teoría. En el discurso de ingreso, en la
Real Academia de Ciencias Exactas, Físicas y Naturales el 19 de abril de 1933 afirmava:
«… ese maravilloso edificio de la Mecánica relativista con que el genio de Einstein ha
sustituido al de la Mecánica clásica, elevando su altura, profundizando sus
fundamentos y ensanchándolo transversalmente con la aplicación a la realidad física».
Sin embargo nunca dejará de plantearle un conflicto personal como creyente; así
lo expresaba en una carta del año 1952:
En el Universo de Einstein no puede haber espacios de más de tres dimensiones ni
velocidades superiores a la velocidad de la luz. Todas estas limitaciones a la obra de un Ser
Todopoderoso no pueden, a mi parecer, ser admitidas por un espíritu creyente e incluso por
un librepensador a quien debe parecerle ilógico que todo lo que existe pueda quedar
encerrado en tan estrechos límites (Atienza 1993, 104).
Comparte con Descartes «su afán cósmico, un anhelo de generalización y de
absoluto que le hace perseguir la estructuración de una física general, capaz de
explicar todo lo que el universo contiene» (Babini 1969, 74). Éste también es el objetivo
de Einstein, aunque con planteamientos nuevos y revolucionarios. Herrera continuó
con el desarrollo de su teoría cosmológica en la que intentaba conciliar la visión de
Descartes del universo con la de Einstein, convirtiéndola en el nexo de unión entre
ambos científicos de los siglos XVII y XX. En Descartes encontró Herrera sus
fundamentos filosóficos y científicos: La unión entre fe y razón.
Un Aspecto interesante de ambos personajes son las cartas que envió a Einstein a
lo largo de su vida. Herrera fue un ingeniero-científico con una visión global y amplia
de la ciencia, de algún modo tenían algo en común y sentía admiración hacia él, quizás
desde que descubrió que habían llegado a algunas conclusiones similares de manera
casi simultánea y por separado. Con el paso de los años recurrirá a Einstein, tanto para
buscar su apoyo en cuestiones personales como para someter a examen la última
versión de su teoría Cosmológica[3] (Atienza 1993, 119).
Miembro de sociedades como la Asociación para el Progreso de las Ciencias, la Real
Sociedad Matemática y la Real Sociedad Geográfica. Es el nexo de unión entre los
ingenieros y el grupo científico de vanguardia. Como ellos, creía en la colaboración
internacional y en la equiparación con Europa; formando parte de su desarrollo
científico y tecnológico.
Un observador actual podría considerar a Emilio Herrera como un hombre abierto
al progreso que elaboró su propia interpretación general de la ciencia, convencido de
que el avance de la misma podía y debía estar fundamentada en la filosofía Cartesiana.
Fue un ingeniero ecléctico, puesto que incorporó y combinó todas las ramas del
conocimiento a sus estudios de ingeniería, imprimiéndoles un carácter sistemático y
científico.
El Archivo de Emilio Herrera, de carácter personal, volvió a España en los años 80
del siglo pasado. Merecería la pena ser difundido para conocer y comprender mejor la
proyección de su dilatada y amplia aportación científica y técnica (Ricol 2011).
REFERENCIAS BIBLIOGRÁFICAS
Atienza Rivero, Emilio (1993), Ciencia y exilio; el general Herrera, Granada, Excmo. Ayuntamiento de
Granada y Proyecto Sur de Ediciones.
Babini, José (1969), Historia sucinta de la matemática, Madrid, Espasa Calpe.
Denia Navarro, Elena (2017), «La fundamentación del principio cosmológico: perspectiva histórica».
en Ciencia y Técnica en la Universidad. Libro de resúmenes XIII Congreso SEHCYT, Alcalá de
Henares, 101-102.
Einstein, A., Grünbaum, A., Eddington, A. S., et al. (1975), La teoría de la relatividad, Pearce Willians, L.
(sel.). Madrid, Alianza Universidad.
Glick, Thomas. F. (1979), «Einstein y los españoles: aspectos de la recepción de la relatividad», Llull
Vol. 2 (Diciembre), 3-22.
González Barredo, José María (1986), Distancia, espacio, tiempo; definición subcuántica y
ultramatemática. Pamplona, Fundación Rode. Traducción de la 2.ª ed. (1983) Subquantum
Ultramathematical definition of Distance, Space and Time, Washington, Maryland Instute of
Advanced Study.
Herrera Linares, Emilio (1916), «Relación de la hipergeometría con la mecánica celeste», Memorial
de ingenieros del Ejército, X (octubre), 371-388.
Herrera Linares, Emilio (1917), «Relación de la hipergeometría con la mecánica celeste», Memorial
de ingenieros del Ejército, VII (julio), 221-235.
Herrera Linares, Emilio (1923), «Una paradoja relativista», Madrid Científico (1083), 33-35.
Herrera Linares, Emilio (1933), Discurso de ingreso en la Academia de Ciencias Exactas, Físicas y
Naturale,Madrid, Gráficas Ruiz Ferry.
Herrera Linares, Emilio (1988), Memorias; Emilio Herrera, Madrid, Ediciones de la Universidad
Autónoma de Madrid.
Otero Carvajal, Luis Enrique (2007), La cosmología relativista. Del universo infinito y estático al universo
en expansión, Puerto Rico, Umbral,
umbral.uprrp.edu/sites/default/files/la_cosmologia_relativista.pdf.
Ricol Félez, África (2011), «Los archivos personales de los ingenieros Emilio Herrera Linares y
Federico Cantero Villamil» en Extraordinarios y fuera de serie: formación, conservación y gestión de
archivos personales. Quintas Jornadas de Archivo y Memoria, Madrid
http://www.archivoymemoria.com.
[1] Definió el fotón como la partícula microscópica que contiene la energía asociada a un rayo de luz.
Esto Impulsó la física cuántica. Fue por lo que obtuvo el premio Nobel en 1922.
[2] La constante c (es independiente del espacio recorrido y del tiempo) fue introducida por Maxvell en
las ecuaciones que explican la relación entre la electricidad y el magnetismo y la solución que se dio es que
la velocidad era respecto al éter, por tanto éste era el sistema de referencia. El experimento de Michelson
Morley, en 1887, demostró que la luz mantiene la velocidad constante independientemente del medio en el
que se trasmita y del camino que siga. La precisión del experimento fue puesto en duda por Herrera.
[3] La última carta de Herrera en el archivo de Einstein está fechada el 23-02-1952.
LA CONCEPCIÓN PENDULAR
DE LA ASTRONOMÍA EN CALDERÓN
INTRODUCCIÓN
Considerado
modo
edro Calderónel de
indisoluble
máslaalfilósofo
Barca
Barroco
(1600-1681)
de los
y es uno de los escritores asociados de
P
1.
a la cultura e ideología de esta época.
dramaturgos del teatro moderno, Calderón
muestra una gran diversidad temática y estilística en sus obras, objeto de múltiples
análisis y estudios. En el segundo centenario del fallecimiento del dramaturgo, Felipe
Picatoste (1881) fue pionero en indicar la presencia de las diferentes ciencias en el
corpus calderoniano. El trabajo de Picatoste ha sido una inspiración para afrontar el
estudio de un campo de conocimientos, la astronomía, en algunas composiciones de
Calderón –La vida es sueño, El mágico prodigioso, El astrólogo fingido– aplicando el modelo
de la cultura científica (Quintanilla 2010). Este enfoque permite relacionar en un
campo artístico, en este caso la creación literaria, la percepción de la ciencia y sus
relaciones con los aspectos ideológicos, sociales y culturales de su época.
La cultura científica es un concepto amplio que abarca aspectos culturales
referidos a la ciencia y también a la dimensión técnica y práctica, en el cual se
integran todas aquellas informaciones con dichas actividades. El concepto se refiere a
«aquella parte de la cultura de un grupo social que consiste en información
relacionada y compatible con la actividad científica» (Quintanilla 2010, 35) en el que
se incluyen aspectos no científicos que sí afectan a la ciencia, a saber «las creencias,
reglas de comportamiento y valoraciones referidas a la ciencia y compatibles con ella
pero que no forman parte de la ciencia» (ibidem). De este modo, Quintanilla diferencia
entre cultura científica en sentido estricto y cultura científica en sentido lato, división
que nos permite plantear la percepción de las ciencias en ámbitos no científicos, como
es el caso de la literatura. En una época como el siglo XVII en que la lectura no estaba
extendida a grandes capas de la población, el teatro y sus géneros funcionan como un
elemento de divulgación y difusión de ideas privilegiado, por consiguiente, también
de la cultura científica que el autor proyecta a sus coetáneos en sus obras.
2.
El género dramático supone una plataforma cultural especial frente a los demás.
Como Maravall (1990) había señalado, la cultura barroca en gran parte se gesta en
torno a las representaciones teatrales y sus textos. El teatro es una cultura de masas
que incluye a todos los estamentos sociales y no hace distinción sino en el lugar de
observación de la representación o el de la puesta en escena de una obra, en el caso
del siglo XVII las comedias representadas en palacios o los corrales de comedias. A
diferencia del resto de géneros literarios el teatro supone la receptividad del público y
la observación y percepción de la puesta en escena de unas tramas y personajes
«vivos». La difusión y conocimiento de las obras dramáticas no se limita a la
impresión y lectura (además de los factores que puedan influir sobre éstas), ya que la
representación escénica tan sólo requiere público. Éste puede ser iletrado y carecer de
la habilidad lectora, ello no obsta para su captación de una función en la que se
materializa la información contenida en los textos (condicionada por factores
políticos, culturales e ideológicos) en su puesta en escena.
Si la imprenta contribuyó a la extensión del conocimiento –para aquella parte de
la población capacitada para leer– el teatro de la Edad Moderna fue el artífice de la
imaginación, recreación, exposición… del mundo para todos los estamentos sociales y
culturales (en especial las funciones populares en los corrales y patios de comedias).
En este sentido, la peculiar cultura de masas que supone el teatro barroco alcanza un
impacto mayor con Calderón, dadas sus complicadas puestas en escena y los artificios
técnicos y decorativos ideados para sus representaciones. Es en este punto donde el
espectador de la época reconoce y admira lo que observa (otra cuestión es si lo
comparte o no), de ahí que Calderón sea uno de los dramaturgos que más cuidan las
puestas en escena, tal como puede advertirse en los prolijos y detallados textos
introductorios y acotaciones (sobre el espacio, decorados, entradas y salidas de
actores, música…); un rasgo característico del gusto por los ingenios en esta peculiar
cultura de masas que puede ejemplificarse con la siguiente acotación de El gran teatro
del mundo: «Con música se abren a un tiempo dos globos: en el uno estará un trono de
gloria, y en él el AUTOR sentado; en el otro ha de haber representación con dos
puertas: en la una pintada una cuna y en la otra un ataúd» (Calderón 1976, 59).
Además, se sabe que Calderón diseñó y dibujó muchos de los escenarios para
representar sus piezas, incluso llegó a colaborar con otros artistas –Lotti y Velázquez–
en las elaboradas representaciones palaciegas del Buen Retiro (Cascardi 1984, 119
120). Puede afirmarse que estos trabajos de diseño, creación técnica de escenarios y
maquinaria teatral para las representaciones, así como las acotaciones e indicaciones
del autor, suponen información de la cultura científica en sentido lato y son una
muestra del grado de complejidad y evolución que imprimió Calderón al teatro
barroco.
El teatro como especial medio de difusión cultural marca la clave de la cultura
científica que puede rastrearse en la producción dramática de Pedro Calderón de la
Barca, a pesar de lo poco que se sabe de su contacto con los conocimientos científicos
(Picatoste 1881, 16). En algunas obras de Calderón puede advertirse la divulgación de
la cultura científica entre la ciencia como conocimiento racional –a pesar de los
parámetros de la época y la reciente introducción de las nuevas ideas procedentes de
Europa– y la magia. De ahí la imagen del péndulo como símbolo de las perspectivas
científicas que el autor adopta al presentar elementos de la cultura científica acordes
con los conocimientos de su época, al tiempo que las integra, o confunde, con la magia
o la astrología. El autor idea un complejo mundo dramático en el que la ciencia y el
conocimiento contribuyen, por un lado, a la vana sensación de comprensión de la
realidad y, por el otro, al desengaño más descarnado. El mundo o universo, como
aparece en El gran teatro del Mundo, se fusiona y confunde con su representación
teatral, y se comprende durante la representación –y con el público partícipe de la
misma– la gran imagen del mundo como teatro (García 2002). Y el autor, o creador, es
un personaje más –el Autor, en la obra mencionada– dentro de ese meta teatro en el
que otros tipos sociales conviven y asisten a la creación y representación dramáticas.
Es interesante resaltar cómo Calderón en la primera acotación de la obra indica la
vestimenta, nada casual, de este personaje, al estilo de un astrónomo o mago, pero
también como un atributo –las potencias– casi divino: «Sale el AUTOR con manto de
estrellas y potencias en el sombrero» (Calderón 1976, 39).
Ha de tenerse en cuenta que la época barroca es abundante en tópicos como el
desengaño, el sueño y el mundo como sueño, así como la vanidad de todo esfuerzo
humano, que conforman algunos de los personajes del universo literario calderoniano
y encarnan la representación engañosa de las ciencias y, sobre todo, de la astrología y
el mundo esotérico. La combinación resulta sorprendente por ser una de las
empleadas por el dramaturgo como elemento de tensión para caracterizar, por
ejemplo, al rey Basilio en su decisión en el destino de Segismundo:
Pues dando crédito yo
a los hados, que adivinos
me pronosticaban daños
en fatales vaticinios,
determiné de encerrar
la fiera que había nacido,
por ver si el sabio tenía
en las estrellas dominio (Calderón 2015, 108, vv.730-737).
El rey Basilio marca su poder y dominio no sólo por su condición de monarca sino
también por su conocimiento científico, en especial las matemáticas, y su aplicación
en la observación astronómica (Calderón 2015, 96). El énfasis reiterativo de sus
saberes se extiende a la comprobación experimental de los presagios, cuestión que
Cascardi (1984, 13-14) juzga como aplicación del método científico a pesar de los
errores de observación y objetividad:
Basilio, King of Poland, father of Segismundo, is a scientist in the literal sense. He seeks and
would be content with empirical knowledge. He wants to verify his astrological predictions
and so arranges test circumstances for this son. If his costume seems medieval, his science is
coincident with Renaissance concepts of scientific method. He might be Galileo, convinced of
the reduction of nature to geometry and mathematics. He works from observation to theory
to practice. His predictions do not fail. On the contrary, he ensures their success. Buthe does
not see that his scientific method deceives him (Cascardi 1984, 13).
Sin duda la caracterización de Basilio es una cultura científica en sentido estricto,
junto a aspectos de los riesgos de su error. Además, puede señalarse la posible
inspiración para Calderón en el recuerdo del eclipse del año 1605 y su confluencia con
un episodio cósmico notable, la conjunción de Júpiter y Saturno en la fecha del
nacimiento de Felipe IV que, para más impacto fue un viernes santo. Estos hechos han
dejado testimonios en la cultura literaria de estos primeros años del siglo XVII:
Cervantes lo recogió en la novela ejemplar «La Gitanilla», en La vida es sueño Calderón
alude varias veces a los astros y el presagio por la fecha del nacimiento de
Segismundo, como Felipe IV, y en el caso de Shakespeare el eclipse es mencionado en
El rey Lear (de Armas 2009, 91-2). Estos datos indican la importancia que tuvo la
astronomía (y su lectura astrológica) en la sociedad del Barroco, un elemento de la
cultura científica en sentido estricto –por la observación y predicción astronómicas– y
también en sentido lato por la influencia de los presagios y predicciones en el sistema
de valores y conocimientos presentes en la sociedad sin críticas aparentes, así como la
asociación religiosa de una fecha como un viernes santo.
La presencia del rey culto e interesado por el conocimiento puede sorprender, sin
embargo es un personaje muy característico de las obras del barroco español. En
Calderón la autoridad real protagoniza La vida es sueño y en El gran teatro del Mundo se
muestra preocupado por saber gobernar:
REY Ciencia me den con que a regir acierte,
que es imposible que domarse puedan
con un yugo no más tantas cervices.
MUNDO Ciencia para gobernar
pide, como Salomón. (Calderón 1976, 71, vv. 972-976).
Con respecto a este asunto es necesario indicar la buena sintonía de Calderón con
Felipe IV, siendo uno de los autores preferidos para las representaciones palatinas, un
posible motivo del supuesto malestar y recelos de Lope (Cruickshank 2011, 167). La
afición del rey por el teatro parece ser el motivo de la abierta protección real que el
autor gozó y de la promoción de sus representaciones teatrales en el Palacio del Buen
Retiro, espacio creado por el conde-duque de Olivares para Felipe IV (Cruickshank
2011, 167-173, Cascardi 1984, 107-120). Ignoramos si esta cercanía real en la vida de
Calderón fue determinante para la creación de uno de sus personajes más conocidos,
el rey Basilio de La vida es sueño, obra compuesta en torno a los años 1633 y 1635, poco
antes de la creación del Buen Retiro.
Los conocimientos científicos empleados en la caracterización del rey Basilio
parecen hacer referencia a los dos modelos cosmológicos, el aristotélico ptolemaico y
el copernicano. El primero, asentado en todo el sistema escolástico, parece seguir
vigente al mencionar el rey «vidrios», «circunferencias cristalinas», en lo que parece
ser una adaptación de la astronomía ptolemaica; pero también el monarca se muestra
orgulloso de sus atentas observaciones y su aplicación de las matemáticas (en clara
sintonía con la revolución científica moderna). Por otro lado, no ha de pasarse por
alto la fuerte presencia de la astrología junto a la ciencia y la descripción del mundo
natural en diversos autores de la época. Desde el Renacimiento las disciplinas
científicas –la física astronómica– y las astrológicas aparecían claramente
diferenciadas por su finalidad, así lo aclaró Pedro Ciruelo citando a Ptolomeo en su
Copiosísimo comentario de la esfera del mundo:
«dos son las partes principales de la astrología: la una totalmente especulativa, que inquiera
las disposiciones, cantidades y movimientos de los cielos y astros y los demás accidentes de
ellos; la otra como práctica, la cual, por medio de sus virtudes e influjos, juzga y predice los
cambios y demás efectos de esta región elemental. La primera procede demostrativa y
matemáticamente y, testigo Isidoro, se dice astronomía. La segunda induce física, probable y
contingentemente y, como dice Ptolomeo en la primera palabra del Centiloquio, sus juicios son
intermedios entre lo necesario y lo posible, y así fallan alguna vez, … según Isidoro, ésta es
propiamente la astrología» (Flórez et al., 1990, 119,121).
Un siglo más tarde Saavedra Fajardo advierte al gobernante sobre las ciencias
astrológicas (o astronómicas):
En la Astrología judiciaria se suelen perder los príncipes, porque el apetito de
saber lo futuro es vehemente en todos, y en ellos más, porque les importaría mucho, y
porque anhelan por parecerse a Dios y hacer sobrenatural su poder; y así, pasan a
otras artes supersticiosas y aborrecidas del pueblo, llegando a creer que todo se obra
por las causas segundas, con que niegan la Providencia divina, dando en agüeros y
sortilegios, y como dependen más del caso que de la prudencia e industria humana,
son remisos en resolver y obrar, y se consultan más con los astrólogos que con sus
consejeros (Saavedra Fajardo 1999, 228-9).
Y es curioso cómo en Los trabajos de Persiles y Sigismunda (1617) Cervantes presenta
el discurso de un astrólogo, Mauricio, que a diferencia de Basilio duda de la seguridad
de los hechos observados:
… observé los astros, miré el aspecto de los planetas, señalé los sitios y casas necesarias para
que respondiese mi trabajo a mi deseo, porque ninguna ciencia, en cuanto a ciencia, engaña: el
engaño está en quien no la sabe, principalmente la del astrología, por la velocidad de los
cielos, que se lleva tras sí todas las estrellas, las cuales no influyen en este lugar lo que en
aquél, ni en aquél lo que en éste; y así, el astrólogo judiciario, si acierta alguna vez en sus
juicios, es por arrimarse a lo más probable y a lo más esperimentado, y el mejor astrólogo del
mundo, puesto que muchas veces se engaña, es el demonio, porque no solamente juzga de lo
por venir por la ciencia que sabe, sino también por las premisas y conjeturas; y, como ha
tanto tiempo que tiene esperiencia de los casos pasados y tanta noticia de los presentes, con
facilidad se arroja a juzgar de los por venir, lo que no tenemos los aprendices desta ciencia,
pues hemos de juzgar siempre a tiento y con poca seguridad (Cervantes 1969, 116, cursivas
nuestras).
Calderón despliega en sus obras un complejo entramado de elementos culturales
típicos de la sociedad del Barroco: si el nacimiento de un futuro rey está en la trama
de La vida es sueño, o al menos en su inspiración fáctica, en el Astrólogo fingido las
artimañas y tretas, al más puro estilo picaresco, se manifiestan en personajes y
situaciones que «de un engaño salieron mil engaños» (Calderón 2011, 449). En este
caso, la función cómica se acentúa con la función ética y didáctica en el escarnio
público del falso mago, don Diego, y cómo públicamente pierde todo y reconoce sus
engaños. Los múltiples enredos manifiestan el egoísmo y la utilización de las artes
mágicas para medrar o conseguir algo de un modo injusto. El mensaje implícito de la
información cultural valorativa es la censura y reprobación de esas artes, pero
también de la actuación social y moralmente cuestionable de Don Diego. En el caso del
rey Basilio, la ciencia racional parece ser su vocación, con su peculiar interpretación
cientificista y determinista, en una clara alusión a mitos clásicos (Edipo, Saturno) y a
creencias no racionales: «es todo el cielo un presagio / y es todo el mundo un
prodigio» (Calderón 2015, 107).
La separación que dividía la astronomía en judiciaria y la astronomía natural,
basada en la observación y en las explicaciones racionales, en ocasiones parece
diluirse para el autor, pero en general las prácticas y creencias abiertamente
esotéricas suelen derivar en su reprobación o en el descrédito de los personajes que
las sostienen. El Mágico prodigioso plantea el tema del pacto con el demonio en una
historia ambientada en la antigua Antioquía donde el pagano Cipriano, interesado por
el estudio, es tentado y acaba vendiendo su alma a cambio de conocimientos. Pero su
amor por Justina acaba siendo más fuerte, y aún más el divino, reforzando el rechazo
de las prácticas mágicas y salvándose así Cipriano del engaño e ilusión demoníacas. La
atracción fáustica del conocimiento y el peligro de la condena religiosa. Desde el
punto de vista de la cultura científica, la comedia apuntala la presencia de la ciencia y
los peligros de la interpretación del saber, junto a las valoraciones religiosas y
morales.
En conclusión, en el breve corpus calderoniano analizado, la cultura científica es
un elemento más de las piezas teatrales, bien como característica de uno de los
personajes (Basilio, Cipriano) cuyas acciones determinan la trama, o bien como un
elemento que refuerza el sistema de valores de la época e instruye al público en
materia científica, como expresó Maravall: «Hasta para manipular con «secretos
naturales» se acude a la experiencia, como Calderón nos hace ver en La vida es sueño o
en El mágico prodigioso» (Maravall 1990, 357).
3. REFERENCIAS BIBLIOGRÁFICAS
Calderón de la Barca, Pedro (1976) [1635], El gran teatro del mundo. El gran mercado del mundo, «Letras
Hispánicas», 2.ª ed., Madrid, Cátedra, (ed. de Frutos Cortés, Eugenio).
Calderón de la Barca, Pedro (1985) [1637], El mágico prodigioso, «Letras Hispánicas», 217, 1.ª ed.,
Madrid, Cátedra, (ed. de Wardropper, Bruce W.).
Calderón de la Barca, Pedro (2011) [1632, 1637], El astrólogo fingido, «Biblioteca Áurea Hispánica», 73,
Madrid, Universidad de Navarra/ Iberoamericana/ Vervuet, (ed. de Rodríguez-Gallego,
Fernando).
Calderón de la Barca, Pedro (2015) [1635], La vida es sueño, «Letras Hispánicas»,57, 13.ª ed., Madrid,
Cátedra (ed. de Morón, Ciriaco).
Cascardi, A.J. (1984), The limits ofillusion: a critical study of Calderón, «Cambridge Iberian and Latin
American Studies», Cambridge, Cambridge University Press.
Cervantes Saavedra, Miguel de (1969) [1617], Los trabajos de Persiles y Sigismunda, «Clásicos Castalia»
12, Madrid, Castalia (ed., intr. y notas Avalle-Arce, Juan Bautista).
Cruickshank, Don W. (2011), Calderón de la Barca, «Nueva Biblioteca Románica Hispánica», 17,
Madrid, Gredos.
De Armas, Frederick (2009), «Papeles de zafiro: signos político-mitológicos en La vida es sueño»,
Anuario calderoniano, 2, pp. 75-96, ISSN: 1888-8046.
Flórez Miguel, Cirilo, García Castillo, Pablo, Albares Albares, Roberto (1990), Pedro S. Ciruelo: una
enciclopedia humanista del saber, «Salamanca en el descubrimiento de América», 8, Salamanca,
Caja de Ahorros y Monte de Piedad de Salamanca.
García Gutiérrez, J. (2002), «Dos aspectos de la cosmovisión barroca: La vida como sueño y el mundo
como teatro», Revista de Estudios Extremeños, LVIII, 3 (sept.-dic.), pp. 863-876, ISSN: 0210-2854.
Maravall, José Antonio (1990) [1975], La cultura del Barroco: análisis de una estructura histórica, «Letras
e ideas», 5.ª ed., Barcelona, Ariel.
Picatoste, F. (1881), Calderón ante la ciencia. Concepto de la naturaleza y sus leyes, deducido de sus obras,
Madrid, Imprenta de la Viuda e Hijos de E. Aguado.
Quintanilla, Miguel Ángel (2010), «La ciencia y la cultura científica», ArtefaCToS, 3 (1), 31-48,
http://revistas.usal.es/index.php/artefactos/article/view/8428
Saavedra Fajardo, Diego (1999) [1642], Idea de un príncipe político-cristiano representada en cien
empresas, «Letras Hispánicas», 455, Madrid, Cátedra (ed. de López Poza, Sagrario).
POLIZONTESSINFRONTERA.
LOS CHARLATANES Y LOS LÍMITES
DE LAS HISTORIOGRAFÍAS NACIONALES
RESUMEN: Este trabajo resume los itinerarios del ocultista italiano Alberto Santini-Sgaluppi,
también conocido como Alberto de Sarâk o el conde de Das, quien, a fines del siglo XIX e inicios
del siglo XX recorrió Europa y el continente americano brindando conferencias y fundando
sociedades teosóficas. A partir de este caso, el trabajo reflexiona sobre la circulación del
conocimiento, la información y los actores concretos a través de las novedades científicas y
filosóficas. Plantea, además, que el marco de las historiografías nacionales no alcanza para dar
cuenta de estos fenómenos y que los charlatanes, con su vida trashumante, representan un
objeto de estudio ideal para comprenderlos.
Palabras clave: Albert de Sarâk; teosofía; circulación del saber.
1. INTRODUCCIÓN
En 1906, un folleto publicado en Montevideo salía a la defensa de Alberto de Sarâk,
Conde de Das, doctor en medicina, ciudadano estadounidense originario de la India
(Anónimo 1906a). Había varios motivos para ello: a raíz de su estadía en la banda
oriental del río de la Plata, los diarios de Buenos Aires recordaban que, hacía unos
años, un tal Bennati había acusado a Sarâk de cometer actos indignos en la capital
argentina. Allí se había hecho llamar Santine Galupe, cobrando suculentos honorarios
por sus sesiones de psicología. Aunque los defensores de Sarâk proclamaban que
Santine había usurpado la identidad del Conde, Alberto Santini-Sgaluppi y Alberto de
Sarâk eran la misma persona: un aventurero siciliano, perseguido por la policía y por
los miembros de la internacional teosófica. Desde Madrid se difundía que el Conde no
era Conde ni médico ni nada y que se trataba de un estafador que los teósofos belgas
habían decidido expulsar de su seno (Davis 2017).
Por otro lado, el charlatán Guido Bennati –si de él se tratara–, había nacido en Pisa
en 1827. En la década de 1870 recorrió la América del Sur haciéndose pasar por un
naturalista viajero enviado por el Rey de Italia, practicando la cirugía, publicando los
informes científicos y coleccionando objetos de historia natural, los cuales, a
principios de siglo XX, se habían integrado al acervo del Museo de La Plata (Farro
2009). El conflicto entre Bennati y Das ocurre aproximadamente en la fecha de muerte
del primero, cuando su nombre, teñido de pintoresquismo, era sinónimo de un museo
incaico (Podgorny 2012, 2015).
La referencia a Bennati quizás se trate de una mera estrategia de los uruguayos
para arrinconar al denunciante en el terreno de la charlatanería. Pero, sin embargo,
también representa uno de los tantos nudos que sostienen las cadenas de la verdad y
la mentira y un indicio del cambio que la divulgación rápida de las noticias introduce
en la vida de los charlatanes. Mientras Bennati, en el siglo XIX, gracias a la
fragmentación regional, pudo hacer su carrera dejando atrás los conflictos que se
despertaban a su paso, a Santine lo persiguen las noticias que circulan al ritmo del
cable, el reportaje fotográfico y, sobre todo, las alertas enviadas en el interior de las
sociedades teosófica que él colaboró a crear y a repartir por el mundo (Quereilhac
2010). Este trabajo, resumiendo los itinerarios de este ocultista italiano, reflexiona
sobre la circulación del conocimiento de la mano de los estafadores que, viajando por
el mundo no solo conectan continentes, temas, admiradores y enemigos sino que con
sus mentiras, terminan creando nuevos hechos. [Figura 1]
2. LA HORA DE LA VERDAD
«El Conde de Das. Cuál será el Verdadero» –titulaba La Tribuna, un periódico de
Buenos Aires, sometiendo la cuestión a plebiscito público. Al mismo tiempo, la revista
argentina Caras y Caretas reportaba las andanzas del Conde en Montevideo, destacando
la estafa sufrida por una familia de origen holandés:
He aquí un personaje bien extraño que por sus hechos ha demostrado ser descendiente de
Rocambole. Por lo menos, parece un personaje escapado de un folletín de Ponson du Terrail.
Mezcla de loco lindo, con otro poco de vividor y mucho de aventurero, se ha formado tal
prestigio de hombre misterioso, que se le tiene más miedo que a una revolución. Sus viajes
por Europa y América sirvieron siempre para ejercitar sus nebulosas mañas. Se titula jefe de
una secta macabra. Oficia la «misa roja» y hace exorcismos y conjuros. Siempre lo acompaña
un fantasma que es el espíritu del bien. Ese lo proteje (sic). En cambio, dice que el espíritu del
mal lo persigue eternamente y contra él tiene que luchar sin descanso. Alguien cree que eso
del «espíritu del mal» sea una alusión a la policía. Tal vez… El conde de Das usa diversos
nombres tales como Rama, Alberto de Sorok, Sartine Sgaluppi, etc., y gracias a ellos puede
poner en práctica proyectos dignos de Teresa Humbert1. Actualmente se encuentra en
Montevideo, donde acaba de realizar una de sus hazañas de la que resultó víctima una familia
holandesa que se trajo de Niza, y a la cual gracias a sortilegios, evocaciones, conjuros y
remates de terreno, dejó sin un vintén… El Conde de Das piensa escribir sus memorias.
Dedicará la obra al Conde de la Guadiana. Debiera dedicársela a la policía como recompensa a
las fatigas que le ha originado. (Anónimo 1906 b) [Figura 2]
3. AGRADECIMIENTOS
Este trabajo, terminado gracias a una beca de investigación en la John Carter
Brown Library, mucho le debe los comentarios recibidos en el marco de la mesa
redonda «Historia de la ciencia: conceptos y métodos» coordinada por María Jesús
Santesmases Navarro de Palencia. Se enmarca en los proyectos PIP 0153-CONICET y
PICT 2015-3534 desarrollados en el Archivo Histórico del Museo de La Plata.
4. REFERENCIAS BIBLIOGRÁFICAS
Anónimo (1906a), El Conde de Das (Doctor Albert de Sarâk), Montevideo, sin editorial.
Anónimo (1906b), «De Montevideo. Las hazañas del conde de Das», Caras y Caretas (390), 378.
Anónimo (1907), «Grandes pánicos de pueblos», Alrededor del Mundo (16), 159.
Coen, Deborah (2013), The Earthquake Observers: Disaster Science from Lisbon to Richter, Chicago, The
University of Chicago Press.
Davis, Ryan (2017), «Hypnotism and the Epistemological Limits of Modernity. Alberto de Das y
Leopoldo Alas», en Ryan A. Davis y Alicia Cerezo Paredes (eds.), Modernity and Epistemology in
Nineteenth-Century Spain: Fringe Discourses. Lanham, Lexington Books, 197-224.
Farro, Máximo (2009), La formación del Museo de La Plata. Coleccionistas, comerciantes, estudiosos y
naturalistas viajeros a fines del siglo XIX. Rosario, Prohistoria Ediciones.
Mariátegui, José Carlos (1987), «Un aventurero de folletín», en Obras Completas. Escritos Juveniles (La
Edad de Piedra), 2. Lima, Biblioteca Amauta, 67-72. (Originalmente publicado en La Prensa de
Lima el 22 de mayo de 1915)
Podgorny, Irina (2012), Charlatanes. Crónicas de remedios incurables, Buenos Aires, Eterna Cadencia.
Podgorny, Irina (2015), Charlatanería y cultura científica en el siglo XIX, Madrid, La Catarata.
Podgorny, Irina (2016), «Mentiras de Perogrullo. Las expediciones al Chaco de Leopoldo Arnaud y
de Eduardo L. Holmberg (Argentina, 1884-1885)», en Gisela Mateos y Edna Suárez (eds.),
Aproximaciones a lo local y lo global: América Latina en la Historia de la Ciencia Contemporánea.
México, Centro de Estudios Filosóficos, Políticos y Sociales Vicente Lombardo Toledano, 11-32.
Quereilhac, Soledad (2010), La imaginación científica. Ciencias ocultas y literatura fantástica en el Buenos
Aires de entresiglos (1875-1910), Serie: «Las Tesis del Ravignani», 5, Buenos Aires, Facultad de
Filosofía y Letras.
1 Referencia a la francesa Thérèse Humbert, una supuesta heredera de un millonario estadounidense.
2 Creado por el Conde de Das el 26 de octubre de 1899.
CAMBIO Y RACIONALIDAD EN LAS OPINIONES
COSMOLÓGICAS EN LA NUEVA ESPAÑA DEL SIGLO XVII
RESUMEN: Como se sabe, desde finales del siglo XVI y a lo largo del XVII, se presentaron
modificaciones importantes sobre la idea que se tenía del cosmos. Dentro de los diversos
factores que generaron estos cambios, ocupa un lugar importante la observación de novas y
cometas. Estos cambios, explícita o implícitamente, han solido interpretarse dentro de una
visión lineal de la historia de la ciencia que llevaría desde una concepción escolástica del
cosmos (principalmente aristotélico-tomista) al triunfo de las concepciones científicas
modernas. En este trabajo, se pretenden recuperar los cuestionamientos de las últimas décadas
a dicha interpretación, principalmente en el caso de la ubicación de los nuevos fenómenos
celestes mediante sus paralajes. De esta manera, se hace el seguimiento histórico del paso de la
ubicación celeste de novas y cometas y se analiza como dicho proceso no fue tan lineal ni tan
concluyente como se había planteado. Lo mismo se realiza para el caso novohispano, dando un
rápido repaso a la introducción de la cosmología europea en dichas tierras en el siglo XVI y su
desenvolvimiento en el siglo siguiente, deteniéndonos principalmente en dos de sus principales
autores: fray Diego Rodríguez y Carlos de Sigüenza y Góngora.
Palabras clave: cometas; cosmología; Diego Rodríguez; Sigüenza y Góngora; paralajes.
INTRODUCCIÓN
nte la aparición
Diego,
Góngora acerca
escribirán
deldecometa
diversos
respectivos
decometas
1652-1653,
textos
tanto
aunque
escribirá
Diego
deRodríguez
un
carácter
Discurso
muy
como
etheorológico
diferente. en
de Sigüenza
Fray
y
A
1.
que busca romper con la noción tradicional de los cometas como fenómenos
el
meteorológicos para elevarlos a aquel «etéreo tálamo» que es el cielo. Por su parte,
Sigüenza, a partir del cometa de 1682-83, en un giro completo de la tradición
astronómica-astrológica novohispana, escribirá un Manifiesto filosófico contra los
cometas despojados del imperio que tenían sobre los tímidos a partir del cual se generará
una controversia con otros autores que defendían la concepción tradicional de los
cometas como causas o signos de desgracias. Controversia que llevará a la impresión,
algunos años más tarde, de la Libra astronómica y filosófica en la que Sigüenza pretendía
refutar las bases del saber astrológico tradicional y de la influencia nefasta de los
cometas. Si bien no nos centraremos en la discusión acerca de la validez de la
astrología, en dicho texto también se puede apreciar la valoración que Sigüenza tenía
del método paraláctico.
Tanto fray Diego Rodríguez como Sigüenza y Góngora han sido considerados como
los introductores de la ciencia en México o, por lo menos, como autores de transición
entre el pensamiento escolástico tradicional y el moderno. De igual forma, sus
respectivos textos cometarios se han planteado como un rompimiento con las
concepciones cosmológicas tradicionales en las que se puede apreciar el desarrollo de
nociones científicas modernas. Más allá de pretender analizar que tan «modernos» o
«conservadores» son nuestros autores, en este trabajo pretendemos centrarnos en las
nociones modernas que suelen atribuírseles, especialmente la determinación de la
ubicación celeste de los cometas por medio de sus paralajes, y en analizar que tanto
llegan a demostrar su postura mediante dicho método o a llevarlo a cabo realmente.
En este sentido, se pretende cuestionar que tan necesario era que asumieran la
postura moderna que se les ha atribuido o si los cambios en sus ideas tenían un
sustento y una justificación menos fuerte.
5. CONCLUSIONES
Con la implantación de la cultura europea en la Nueva España llegará también la
cosmología escolástica peripatética pero también de las corrientes innovadoras que se
venían desarrollando en la época. Si bien, como cualquier otro caso particular, el
desarrollo de las ideas cosmológicas novohispanas tendrá su propio ritmo y sus
particularidades pero no necesariamente desfasado de las ideas metropolitanas. Esto
se puede apreciar desde la introducción misma de la cosmología europea por Alonso
de la Veracruz quien plantea algunas ideas alternativas a las aristotélicas o las
nociones estoicas desarrolladas por Francisco Hernández. Posteriormente, a pesar de
difundirse las novedades celestes de la década de 1570 y la supuesta determinación
mediante paralajes de su localización celeste, al contrario de lo que podría esperarse,
se aprecia un cierto reflujo de las ideas de los autores novohispanos a una visión
cosmológica más tradicional lo que predominará hasta mediados del siglo XVII.
Será hasta el caso del Discurso (1635) de fray Diego Rodríguez cuando se rompa de
manera tajante con las nociones peripatéticas sobre los cometas y el cosmos. A partir
de diversas razones, autoridades y métodos, fray Diego concluye que los cometas son
celestes. Pero su único argumento que podría ser concluyente, el de las paralajes, no
lo llevó a cabo (o, por lo menos, no lo desarrolla explícitamente). Más que utilizarlo
como un tipo de «experimento crucial» para la ubicación de los cometas, utiliza el
método paraláctico como una más de las «razones» para apoyar su concepción de los
cometas y los cielos. Al elevar los cometas a los cielos, no sólo rompe con la
inmutabilidad celeste sino también con las supuestas esferas sólidas celestes
proponiendo un cielo fluido. De igual forma, reniega de la distinción tajante entre lo
celeste y lo terrestre pero sin llegar a homogeneizarlos. Si bien en ningún caso sus
planteamientos están sustentados en métodos que podamos considerar como
concluyentes.
Por su parte, si bien Sigüenza también presentará innovaciones y rupturas
importantes con las ideas tradicionales lo hará de una forma muy diferente a fray
Diego. Más allá de su crítica férrea a los fundamentos de la astrología va a atacar no
sólo los métodos paralácticos de Kino resaltando la dificultad de dichos métodos. Por
lo que no los desarrolla limitándose a ofrecer solamente la longitud y latitud del
cometa en diversos días en espera de que puedan ser cotejadas posteriormente. Las
reservas de Sigüenza son congruentes con la complejidad y dificultad que conllevaba
aún la determinación de las paralajes cometarias. De igual forma, Sigüenza tampoco
en mayor medida sus ideas cosmológicas, en este sentido Sigüenza es más precavido
aunque obviamente menos propositivo que fray Diego. Si bien advierte sobre las
dificultades del método paraláctico señala el ideal y el camino de que solamente el
cotejo de observaciones precisas podrá ofrecer resultados paralácticos concluyentes
sobre la ubicación de los cometas.
5. REFERENCIAS BIBLIOGRÁFICAS
Acosta, José de (1590), Historia natural y moral de las Indias, 1.ª edición, Sevilla, Imp. Juan de León.
Barker, Peter (1993), «The optical Theory of comets from Apian to Kepler», Physis (30), 1-15.
Barker, Peter, Goldstein, Bernard (1988), «The Role of Comets in the Copernican Revolution»,
Studies in History and Philosophy of Science, (19-3) 299-319.
Granada, Miguel Ángel (2002), «Pietro Ramo e Jean Pena: Crítica della cosmologia aristotelica e
delle ipotesi astronomiche verso la metà del cinquecento», En Sfere solide e cielo fluido. Momento
del dibattito cosmologico nella seconda metà del Cinquecento. Napoles, Guerini e Associati.
Hernández, Francisco (1976), Historia Natural de Cayo Plinio Segundo, Vol. II, 1.ª edición, México,
Universidad Nacional de México.
Kino, Eusebio Francisco (1681), Exposición astronómica de el cometa, 1.ª edición, México, Imp.
Francisco Rodríguez Lupercio.
Lerner, Michel-Pierre (1997), Le monde des sphères. II. La fin du cosmos classique, 1.ª edición, París, Les
belles letres.
López de Bonilla, Gabriel (1653) Discurso, y relación cometographia del repentino aborto de los Astros, que
sucedió del Cometa que apareció por Diciembre de 1653 [1652], 1.ª edición, México. Imp. Viuda de
Bernardo Calderón.
Martínez, Enrico (1606), Repertorio de los tiempos e historia natural de Nueva España, 1.ª edición,
México, Imp. Enrico Martínez.
Navarro Brotóns, Víctor, Rodríguez, Enrique (1998), Matemáticas, cosmología y humanismo en la España
del siglo XVII. Los Comentarios al segundo libro de la Historio Natural de Plinio de Jerónimo
Muñoz, 1.ª edición. Valencia, Universitat de València-CSIC.
Randles, W. G. L. (1999) The Unmaking of the Medieval Christian Cosmos, 1500-1760: From Solid Heavens to
Boundless Æther, 1a edición, Aldershot-Brookfield, Ashgate.
Rodríguez, Diego (1653), Discurso etheorologico del nuevo cometa, 1a edición, México. Imp. Viuda de
Bernardo Calderón.
Ruiz, Juan (1653) Discurso hecho sobre la significación de dos impresiones meteorológicas que se vieron el
Año pasado de 1652, 1.ª edición, México, Imp. Juan Ruiz.
Sigüenza y Góngora, Carlos (1690), Libra astronómica y filosófica, 1.ª edición, México, Imp. Viuda de
Bernardo de Calderón.
Van Helden, Albert (1990), «Halley and the Dimensions of the Solar System», Standing on the
Shoulders of Giants. A Longer View of Newton and Halley, 1.ª edición, Berkeley, University of
California Press.
EVOLUCIÓN HISTÓRICA
DE LA GAMIFICACIÓN EDUCATIVA
DIEGO VERGARA RODRÍGUEZ (1), ANA ISABEL GÓMEZ VALLECILLO (2), PABLO FERNÁNDEZ ARIAS
(3)
1. INTRODUCCIÓN
U n juego es un sistema compuesto por un conjunto de reglas, obstáculos y
elecciones, en el que el jugador necesita aprender de sus errores para tener
éxito (Gee 2003). De acuerdo con esta definición, resulta fácil comprender que
los juegos como tal han estado presentes en la sociedad desde la antigüedad. Dado que
el juego puede manifestarse como un ámbito de encuentro que favorece tanto el
factor social como el cultural, la adopción de estructuras de juegos en diferentes
ámbitos (como el sector educativo, industrial, etc.) puede hacer más atractiva una
actividad de carácter tedioso.
La evolución de los juegos y, sobretodo, el modo de jugar, cambiaron radicalmente
con la aparición y consolidación de la industria del videojuego a partir de los años 80.
El mundo del marketing captó rápidamente la influencia que la experiencia lúdica
tenía en la modificación del comportamiento, y pronto adoptó elementos y dinámicas
de los videojuegos para la captación y fidelización de clientes con un notable éxito
(Zichermann y Linder 2010). En este sentido, se puede relacionar a la gamificación con
la estrategia comercial de ofrecer regalos, acumular cupones y puntos, etc., algo
habitualmente utilizado por innumerables compañías para vender sus productos
(Werbach y Hunter 2012).
Figura 1. Número de artículos publicados en los últimos años en la base de SCOPUS que
incluyen la palabra gamification en el título, en el resumen o en las palabras clave
5. REFERENCIAS BIBLIOGRÁFICAS
Bartle, Richard (1996), «Hearts, clubs, diamonds, spades: Players who suit MUDs», Journal of MUD
Research (1), 19.
Boyle, Elizabeth A., Hainey, Thomas, Connolly, Thomas M., Gray, Grant, Earp, Jeffrey, Ott, Michela,
Lim, Theodore, Ninaus, Manuel, Ribeiro Claudia, Pereira, Joao (2016), «An update to the
systematic literature review of empirical evidence of the impacts and outcomes of computer
games and serious games», Computers & Education (94), 178-192.
Connolly, Thomas M., Boyle, Elizabeth A., McArthur, Ewan, Hainey, Thomas, Boyle, James M. (2012),
«A systematic literature review of empirical evidence on computer games and serious games»,
Computers & Education (59), 661-686.
Dale, Steve (2014), «Gamification: Making work fun, or making fun of work?» Business Information
Review (31), 82-90.
Deterding, Sebastian, Khaled, Rilla, Nacke, Lennart, Dixon, Dan (2011), «From game design elements
to gamefulness: defining gamification», en Proceedings of the 15th international academic MindTrek
conference: Envisioning future media environments, ACM, 9-15.
Gamification Research Network (2017). Gamification within «Decision Analytics, Mobile Services, and
Service Science». Recuperado de http://gamification-research.org/2016/02/cfp-gamification
hicss-2017/
Garnet Group (2011), Gartner Says By 2015, «More Than 50 Percent of Organizations That Manage
Innovation Processes Will Gamify Those Processes» Press Release, Gartner Inc. Recuperado de
http://www. gartner.com/newsroom/id/1629214
Gee, James Paul (2003), What digital games have to teach us about learning and literacy, Nueva York,
Palgrave Macmillan.
Griffin, Daniel (2014), «Gamification in e-learning», Ashridge Business School «Gamification in e
learning» White Paper. Recuperado de http://www.ashridge.org.uk/Media-Library/
Ashridge/PDFs /Virtual%20Ashridge/Whitepapers/Gamification-in-elearning.pdf
Malone, Thomas W. (1980), What Makes Things Fun to Learn? A Study of Intrinsically Motivating
Computer Games, Palo Alto Research Center, Xerox.
McGonigal, Jane (2011), Reality is Broken: Why Games Make Us Better and How They Can Change the
World, New York, Penguin Press.
Meloni, Wanda, Gruener, Wolfgang (2012), «Gamification in 2012: Market update, consumer and
enterprise markettrends», Gaming Business Review M (2).
Pelling, Nick (2015), «Gamification Past and Present», GWC14, Barcelona, España. Recuperadp de
https://www.youtube.com/watch?v=Y7bHy HR9ysQ
Sawyer, Ben, Smith, Peter (2008), «Serious games taxonomy», en Slides from the Serious Games Summit
at the Game Developers Conference San Francisco, USA.
Schell, Jesse (2010), «Jesse Schell: When Games Invade Real Life», TED. Recuperado de
https://www.ted. com/talks/jesse_schell_ when_games_invade_real_life
Seaborn, Katie, Fels, Deborah (2015), «Gamification in theory and action: A survey», International
Journal of Human-Computer Studies (74), 14-31.
Werbach, Kevin, Hunter, Dan (2012), For the Win: How Game Thinking Can Revolutionize Your Business,
Pennsylvania, Wharton Digital Press.
Wilken, Rowan (2016), «The de-gamification of Foursquare?», en Michele Willson and Tama Leaver
(eds.) Social, casual and mobile games: the changing gaming landscape, Bloomsbury Publishing, USA,
179-192.
Zichermann, Gabe, Linder, Joselin (2010), Game-Based Marketing: Inspire Customers Loyalty Through
Rewards, Challenges and Contests, Hoboken, NJ, Wiley Publishing.
Zichermann, Gabe, Cunningham, Christopher (2011), Gamification by design: Implementing game
mechanics in web and mobile apps, Sebastopol, CA, «O’Reilly Media, Inc».
AQUILAFUENTE, 250
y
º
VNIVERSiDAI) -
El A. A. M. A. A ¿oo a oy
121 - [],