Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Antecedentes de Neuropsicología Infantíl

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 33

UNIDAD 1.

ANTECEDENTES HISTÓRICOS
OBJETIVOS DE APRENDIZAJE

 Conocer las referencias generales del estudio del cerebro en diversas épocas
de la historia.
 Identificar a los personajes que en su época realizaron aportaciones
sustanciales para la constitución de lo que hoy se conoce como neurociencia.
 Analizar las bases que dieron comienzo al estudio del cerebro con apoyo de la
tecnología.
 Analizar el uso de la tecnología en el estudio actual del cerebro en distintas
especies y la humana.
 Conocer los conceptos generales que permitan iniciar y adentrarse en el
estudio de la neurociencia.
En esta primer apartado, se analizarán los principales hitos que, a lo largo de la
historia, han señalado el camino en la búsqueda constante de respuestas en torno a la
mente y el cerebro. Se revisará la concepción que se tenía sobre el cerebro y de sus
funciones durante la Edad antigua y la Edad media, así como los avances anatómicos
y fisiológicos que ocurrieron en el Renacimiento y en siglos posteriores. Se abordarán
el descubrimiento de la electricidad animal durante la Edad moderna y los debates del
siglo XIX sobre la corteza cerebral y sus funciones. Ya en el siglo XX, se tratará con
más detenimiento la figura y el papel desempeñado por Santiago Ramón y Cajal y su
gigantesca e invaluable contribución a la comprensión del sistema nervioso y de su
unidad fundamental, la neurona, que dio paso a la identificación de los primeros
circuitos neuronales.
LA NEUROFISIOLOGÍA, LA PSICOLOGÍA  Y LA NEUROCIENCIA

La neurofisiología trata de estudiar el comportamiento de neuronas o grupos de


neuronas aisladas. Los hechos establecidos por la neurofisiología elemental pueden
ser aprovechados por la teoría matemática de redes neuronales para
construir modelos que permitan identificar fenómenos neurofisiológicos como la
memoria aprendizaje. 

Los principales hechos establecidos por la neurofisiología tenidos en cuenta en


la construcción de modelos de redes neuronales son:
 
 Un cerebro con gran cantidad de neuronas. El número de neuronas de un
cerebro humano se ha estimado en más de 86 mil millones.

 Las neuronas consisten en un cuerpo celular, una estructura dendrítica arbórea


y un axón. Las neuronas son células vivas con un metabolismo similar al encontrado
en el resto de células. Así el cuerpo celular o soma contiene un núcleo, vesículas,
mitocondrias y otros orgánulos. A diferencias de otras células, además posee
dendritas y axón. Las dendritas forman una estructura arbórea inmensa que puede
extenderse por amplias áreas de un cerebro, los axones pueden llegar a tener más
de un metro de longitud. Las neuronas generan potenciales eléctricos. Los
potenciales eléctricos o potenciales de acción, también llamados pulsos eléctricos o
chispas de voltaje, son fenómenos electrofisiológicos provocados porque las
membranas celulares de las neuronas tienen propiedades activas que las hacen
excitables o sensibles a potenciales eléctricos procedentes de otras neuronas. Estos
potenciales eléctricos se originan usualmente en el extremo del axón y se propagan a
lo largo de su longitud. Los potenciales eléctricos son los mecanismos básicos
para la comunicaciónentre neuronas. Los potenciales de acción pueden considerarse
como señales eléctricas que una neurona envía a otras. Cada neurona recibe
muchas señales procedentes de otras neuronas (potencial convergente) y a su vez
envía señalas a muchas otras (potencial emergente).

 La neurofisiología tiene como objetivo comprender el funcionamiento


del sistema nervioso, y el buen funcionamiento del sistema nervioso depende de que
el flujo de información que este se encarga de transmitir, sea rápida y eficiente entre
las neuronas y sus efectores.

  La información se transmite utilizando señales eléctricas, que se propagan a lo


largo de los axones de las neuronas. Esta señal eléctrica se conoce como impulso
nervioso, o potencial de acción.

Por lo anterior, las neurociencias tienen una evidente vinculación con otras disciplinas
como la psicología, la medicina general, los procesos terapéuticos, la educación, las
ciencias sociales y por consecuencia los sistemas de aplicación de justicia.

Desde el XXXIII congreso Interamericano de psicología, se reconoció el enfoque de


los diferentes procesos que se llevan a cabo en investigación y en psicología. Desde
este escenario, se observó como emerge con más contundencia para Latinoamérica el
imperativo formador de las neurociencias en la psicología. Una disciplina que a
diferencia de intentar reducir los fenómenos que subyacen al comportamiento humano,
pretende contribuir a la explicación de los diferentes componentes que se inscriben en
la dinámica de lo psíquico, y como esto operacionaliza la ejecución de conductas
saludables o de vulnerabilidad. En este sentido, Noam Chomsky refería que la
ignorancia se podía dividir en problemas y misterios; por lo anterior cabe decir que los
problemas sugieren el uso de una intuición entrenada por la inferencia que nos delinea
rutas para la explicación del fenómeno, sin embargo el misterio refleja justamente
nuestra poca información en torno al fenómeno, el humano maravillado frente al
evento responde con el mito o con la conjunción de variables que origine de cuenta de
un símbolo que disminuya el peso en el imaginario que trae la incertidumbre.
Actualmente y después de que en el 6 de abril de 2000 se anunciara públicamente la
terminación del primer borrador del genoma humano que indicaba la localización de
los genes dentro de los cromosomas , en incuestionable trazar una ruta de la variación
de conductas y la vulnerabilidad de patologías relacionadas a la psiquiatría y a la
psicología desde los patrones de susceptibilidad que cargamos en nuestra especie y
que se soportan en nuestra historia evolutiva y la expresión diferencial de proteínas
moduladas por la acción compleja de nuestros genes. Pues bien, los avances en la
neurobiología de la dinámica humana; el cooperativismo y el castigo (punishment)
como fuerzas innatas de los procesos sociales que evolucionan en las sociedades
(Fehl, van der Post, & Semmann, 2011; Gneezy & Fessler, 2011; Strassmann, Page,
Robinson, & Seeley, 2011). El altruismo y el egoísmo, como comportamientos que
gobiernan la especie, y las presiones de selección explicitas que retan la eficacia
humana en la cultura de unos más que de otros; contribuyen a una ruta explicativa de
la susceptibilidad a la psicopatología y a la expresión de rasgos bizarros, saludables o
de resiliencia suficiente para tolerar el estrés que supone la interacción con el medio y
con los otros(Allen, 2011; Parker & Maestripieri, 2011). El psicólogo contemporáneo no
puede escapar de esta realidad, observar la conducta humana y habilitar una
aproximación desde las neurociencias como eje central para enfocar procesos de
intervención terapéutica permitirá el desarrollo de árboles de decisión clínica y
diagnostica más apropiados y avanzar en los esquemas de intervención, prevención y
pronostico en la psicopatología.
UNIDAD 1. ANTECEDENTES HISTÓRICOS. PARTE I.  
Se estará de acuerdo en que una piedra rueda por el monte, ladera abajo, no tiene ni
una pizca de psiquismo; se mueve, pero carece de comportamiento, en el sentido
estricto y psicológico del término. Es un objeto, un conjunto de moléculas que sigue de
forma ciega la acción de la gravedad, y no se adivina intención en su movimiento, ni el
menor rastro de una subjetividad que sienta, que quiera algo (mucho menos) que
piense. Tampoco en un muelle, aunque el movimiento sea propio y provenga de su
interior. No se concederá intención a un girasol cuando sigue al sol, no parece de
desee ir tras él, sólo es un impersonal automatismo  fotoquímico, similar a una
reacción química en el tubo de ensayo. Y ¿que pasa con una cucaracha? ¿le
reconocemos intención de huir del fuego o de nuestra sombra? desea escapar esta
campeona de la velocidad - unos 350 km/hr en nuestra escala -? ¿se atisba un deseo
en esa urgente y desesperada conducta de huída? ¿Algún psiquismo -entre comillas-
debe poseer que no tiene la piedra o el girasol.

¿Siente dolor un pez? Los investigadores no acaban de ponerse de acuerdo, al menos


en la forma en como lo sentimos nosotros - aunque bien dicho, su dolor sólo lo
suponemos. Por otro lado, desde luego un perro si experimenta dolor al igual que un
gato; a juzgar por sus aullidos y maullidos respectivamente habrá de concluirse que si,
no siente daño o dolor, lo simulan magistralmente. Hoy sabemos que no es así.

En el siglo XVII, René Descartes, padre de la filosofía racionalista estaba convencido


de que los animales eran simples autómatas hechos de carne y hueso. Un cruel
comportamiento suyo, el Padre Malebranche, fue más allá y sostuvo que "los animales
comían sin placer, lloraban sin dolor, crecían sin saberlo, no deseaban nada, no le
temían a nada y nada conocían". Perpetró impasible toda la clase de salvajadas a
perros y gatos ya que "al carecer de alma" no podían sentir emociones reales y sus
muestras de sufrimiento únicamente eran movimientos mecánicos y vacíos, pura
apariencia. Hoy nadie defendería esa descabellada hipótesis y, afortunadamente, hoy
en día, es obligatorio el uso de anestesia en los protocolos de experimentación animal.

Tal como se analizará más adelante, un chimpancé se autoreconoce frente a un


espejo, algo que un perro no hace, pero vive anclado en el "aquí y ahora". Los
chimpancés tienen expresiones culturales y son capaces de utilizar herramientas, sin
embargo, , dan escasas muestras de elaborar planes para más allá de unos cuantos
minutos. Tampoco está claro si pueden inferir mentes en los demás; no hay evidencia
de que los especímenes expertos enseñen a otros con menor experiencia o sean
tratados de manera distinta; tampoco hay evidencia que sepan que los seres humanos
vemos con los ojos. Los experimentos de Povinelli muestran a chimpancés pidiendo
comida tanto a seres humanos invidentes (con los ojos tapados) como a personas con
visión normal. Esta dificultad en inferir estados mentales en los demás es muy
llamativa si se compara al chimpancé con el Homo sapiens: el ser humano tiene una
asombrosa facilidad y predisposición para otorgar psiquismo incluso a objetos que
carecen de el. Basta observar en una pantalla a un círculo moverse detrás de un
cuadrado, para que inmediatamente lo percibamos en términos mentalistas: el
cículo persigue con insistencia al cuadrado como si tuviera intención de alcanzarlo. Y
conscientemente sabemos que no hay psiquismo por ningún lado, sólo 15 líneas de
código en VisualBasic. Quizá sea el mismo mecanismo que ha llevado al hombre a
creer e la existencia de fuerzas supremas o incluso paranormales.

Es necesario detenerse un momento. Nos hemos perdido algo en este recorrido de la


piedra al Homo sapiens. La piedra estaba hecha de ciegas moléculas físicas, no cabía
esperar nada extraordinario. ¿Acaso las moléculas de la cucaracha o incluso de los
humanos son distintas y menos ciegas? ¿llevan incorporado algún componente del
que emanan la conducta, las sensaciones, la conciencia? Pues no, la ciencia dice que
están hechas de átomos comunes, los mismos que existen en el universo (al menos
conocido por el hombre) es decir, de la tabla periódica. Así que el desafío es grandioso
porque parafraseando al filósofo norteamericano John Searle (2000, p. 37-38) "toda
nuestra vida mental está causada por la conducta de neuronas y todo lo que éstas
hacen es incrementar o disminuir sus tasas de disparos. El inconveniente es este:
¿como es posible que disparos neurales físicos, objetivos, cuantitativamente
describibles, causen experiencias cualitativas, privadas, subjetivas?. En realidad esta
pregunta es esencial en distintas variantes, es la que se ha formulado la humanidad
desde siempre y ocupa el núcleo del dilema mente - cuerpo o, más concretamente,
mente - cerebro. Dicho de forma breve ¿como el cerebro crea una mente o incluso una
simple sensación? ¿como se pasa de la electroquímica al pensamiento?
PERSPECTIVA HISTÓRICA 
El primer documento escrito del que se tiene conocimiento y en el que aparece
nombrado el órgano del cerebro fue el papiro quirúrgico de Edwin Smith, así llamado
en honor a su descubridor. Corresponde a un papiro egipcio de aproximadamente el
año 1700 a.C., el que a su vez, probablemente se basaba en un texto del 3000
también a.C. Parece que los antiguos egipcios no concedían ninguna importancia al
cerebro ya que al preparar las momias lo extraían por la nariz y lo desechaban,
mientras que conservaban con delicadeza otros órganos internos que debían
acompañar a su dueño en la otra vida.

Fragmento del papiro quirúrgico de Edwin Smith (situado a la izquierda). A la derecha


se muestra la imagen de James Henry Breasted egiptólogo a quien los herederos de
Smith autorizaron para que estudiara el contenido del papiro. Actualmente, el
documento se conserva en la Rare Book Room de la New York Academy of Medicine.
EL CEREBRO EN LA EDAD ANTIGUA Y LA EDAD MEDIA
En la actualidad sabemos sin lugar a dudas que la mente reside en el cerebro, pero
esto no fue siempre así. En la Grecia antigua, Aristóteles (384-322 a.C.) creía que un
órgano tan inmóvil, grasiento y escaso de sangre (en cadáveres) era prácticamente
inútil. Lo consideraba una flema sobrante que a veces se filtraba hacia las fosas
nasales en forma de moco, y que sólo servía para refrigerar la sangre, una especie de
radiador natural. Juzgaba más lógico atribuir al corazón el origen de la función mental
ya que de acuerdo a su consideración, ocupaba un lugar central del cuerpo, se movía,
estaba caliente bombeando sangre y al detenerse implicaba la muerte. Esta
concepción cardio céntrica contó con algunos partidarios hasta bien entrado el siglo
XVII y quedan reminiscencias de ella en la etimología de palabras como: "cordura;
"recuerdo"; "recordar", etc, cuya raíz latina es cor (corazón).

Sin embargo, no todos los autores clásicos compartían esta explicación cardiocéntrica.
De forma paralela, una nueva corriente de pensamiento había surgido décadas antes
a partir de las observaciones de Hipócrates (aproximadamente 460-377 a.C), el padre
de la medicina. Son conocidas sus palabras sobre el protagonismo del cerebro: "Los
hombres deberían saber que del cerebro y nada más que del cerebro vienen las
alegrías, el dolor, el abatimiento y las lamentaciones" En su obra "Corpus
hippocraticum" aparecen múltiples referencias a perturbaciones del movimiento
causadas por una lesión cerebral y el autor vinculó certeramente las heridas en un
lado de la cabeza con convulsiones y parálisis en la mitad opuesta del cuerpo.

Varios siglos después, Galeno (aproximadamente 130-200 d.C.) se convierte en una


referencia clave durante largo tiempo. De origen griego, nacido en Pérgamo bajo el
Imperio Romano, se trasladó a Roma y llegó a ser médico de la corte con cuatro
emperadores sucesivos, enfrentándose a sectas y charlatanes de todo tipo. No pudo
diseccionar cadáveres porque la ley romana lo prohibía, pero si lo hizo con algunas
especies animales, entre ellas gatos, perros, camellos, leones, lobos, osos,
comadrejas, pájaros y peces. No pudo hacerlo en invertebrados al carecer de cristales
de aumento. Para estudiar el cerebro prefería los bueyes, porque, siendo un animal de
gran tamaño, podía disponer con facilidad de sesos enteros ya deshuesados en el
mercado. Hay una descripción muy citada en la que Galeno enseña a sus estudiantes,
cómo llevar a cabo, paso a paso, la disección del cerebro de un buey de forma
sistemática. Galeno prestó mucha atención a los nervios y presumía de que, por
simple palpación, podía distinguir los sensitivos, más suaves que los motores, muy
robustos porque transmiten el movimiento a los músculos. Hizo suya una tradición que
se remontaba a los antiguos médicos de la Alejandría, según la cual, los nervios eran
huecos, una especie de tubo por donde viajaban "los espíritus animales" del cerebro
para mover las partes del cuerpo. Esta explicación duraría toda la edad media y la
influencia de Galeno se extendió en Europa durante más de 1,000 años a través de
sus abundantes escritos.

El periodo oscuro que supuso la Edad Media, no añadió ningún avance sustancial a
las observaciones de la época clásica, se abandonó la experimentación y la ciencia se
limitó a repetir las enseñanzas de los clásicos.
Junto a la creencia en los nervios huecos, la explicación medieval del cerebro
consistiría fundamentalmente en la denominada "teoría ventricular". Los padres de la
iglesia establecieron que los "espíritus animales" y por lo tanto, las funciones psíquicas
se creaban en los ventrículos o cavidades cerebrales; para la Iglesia Cristiana, el tejido
cerebral era demasiado etéreo, demasiado sucio para actuar de intermediario entre el
alma y el cuerpo. Una diferencia importante con el periodo clásico es que e la edad
media se tendía a localizar las principales facultades mentales en ventrículos
específicos. Así, Nemesius, médico y obispo de Emesa en Siria, bastante influyente en
su tiempo, resumió en el siglo IV lo esencial de la teoría ventricular: "Los sentidos
tienen sus fuentes y raíces en los ventrículos frontales del cerebro, los de la facultad
del intelecto están en la parte media y los de la memoria en la parte trasera. Todos los
sentidos confluirían con sus nervios en un sentido común o senso cune, ubicado en el
ventrículo frontal, donde también se alojaría el alma en el caso de los seres humanos".
Por supuesto nada de esto corresponde a lo que hoy se sabe, de hecho, no existe un
ventrículo frontal delantero.
EL CEREBRO EN EL RENACIMIENTO Y LA EDAD MODERNA
Con la llegada del Renacimiento europeo y el inicio de la Edad Moderna se volvió a la
observación de la naturaleza y a la tabla de disecciones. De la repetición de los
antiguos dogmas, basados en las traducciones árabe-latinas de los textos clásicos, se
pasó a la búsqueda de conocimiento nuevo, lo que supuso un verdadero renacer en
las creencias y pensamiento humanista. En este contexto, Leonardo Da Vinci (1452-
1519)aplicó su extraordinario talento a la anatomía y quiso conocer la forma de los
ventrículos cerebrales a través de un ingenioso método. Inyectó cera líquida caliente
en el interior de esas cavidades y al enfriarse la cera, obtuvo por primera vez un
modelo tridimensional de todo el sistema ventricular del cerebro. Da Vinci se
decepcionó al comprobar que el modelo obtenido no encajaba con la doctrina
medieval, pues no aparecía ningún ventrículo frontal que sirviera de alojamiento para
la senso comune y el alma. Sin pretender renunciar a la teoría ventricular, Leonardo
adoptó una solución de compromiso y recolocó la senso comune en el ventrículo
medio. Lamentablemente al no publicar sus dibujos, estos descubrimientos tuvieron
poco impacto en la anatomía de la época.
La monumental obra del italiano Andreas Vesalius o Vesalio (1514-1564) "De humani
corporis fabrica, traducida como "De la estructura del cuerpo humano o también de los
trabajos del cuerpo humano, publicada en 1543, constituye un hito en la historia de
anatomía humana y quizás uno de los libros médicos más relevantes jamás escritos.
Reúne el resultado de cientos de disecciones humanas y en ellas, Vesalio fue
comprobando que la ciencia anatómica de su admirado Galeno distaba mucho de ser
perfecta. Registró hasta 200 errores y afirmaciones que no encajaban con lo que él
observaba y le sorprendió tanto aparente descuido en el maestro clásico, venerado
generación tras generación. Así se resalta este hecho en Breve Historia del
cerebro (Gonzalez, 2010 p. 29).
En una de las ocasiones en que es invitado a la Universidad de Bolonia, Vesalio
ensambla un esqueleto humano como regalo para sus anfitriones. Junto a el coloca el
esqueleto de in mono con el fin de apreciar las diferencias y de pronto, confirma algo
que sospechaba tiempo atrás ¿como no se le había ocurrido antes? Galeno jamás
había diseccionado a un ser humano! sus descripciones se ajustaban en realidad a la
anatomía de un simio y otros animales. Fue toda una revelación que, en cierto modo,
exculpaba al médico griego, pero ahora, quedaba todo por redescubrir! Así que este
fue un poderoso acicate para la gigantesca aportación de Vesalio, quien comprendió
las limitaciones que habían rodeado a Galeno, recordemos que el impero romano
prohibió las disecciones humanas y jamás humilló en público o ante sus estudiantes la
memoria del insigne precursor.

En sus 663 páginas De humani corporis fabrica recopila detalladísimas ilustraciones


de admirable factura gracias a la destreza de un discípulo de Tiziano. Consta de siete
libros agrupados como capítulos; el libro IV se dedica al sistema nervioso y el libro VII
describe el cerebro. La obra de Vesalio tendría continuidad en el siglo siguiente en la
extraordinaria contribución del médico de Oxford, Thomas Willis (1621-1675) al
conocimiento detallado de la anatomía del cerebro humano.

Son tiempos de grandes cambios en los que se cuestionan creencias sacralizadas


durante siglos. El mismo año en que aparece el mencionado texto de Vesalio,
Copérnico publica su "De revolotionibus orbium coelestium, en el cual la tierra deja de
ser el centro del universo; en cierto sentido, puede decirse que el tratado de Versalio
constituye un giro copernicano de la anatomía humana: las enseñanzas del pasado
dejan de ser la última palabra, la anatomía gelénica no es perfecta y ya no es el centro
del conocimiento sobre el cuerpo humano. El telescopio de Galileo muestra manchas
es un astro, el Sol, que se suponía perfecto; los elementos celestes ya no son fijos e
inmutables sino que presentan irregularidades y siguen las mismas leyes que los
cuerpos terrestres; la presencia de satélites orbitándo Jupiter contradice la doctrina
oficial de que todo el orbe celeste gira en torno a la Tierra y refuerza la nueva teoría
copérnica. El descubrimiento de la circulación de la sangre por William Harvey desafía
también el modelo clásico de los cuatro humores. Es decir, se asiste a una
transformación imparable en todos los frentes, a favor del nuevo viento de la historia.
EL SIGLO XVII Y RENÉ DESCARTES
La época en que Descartes vivió, escribió y, sobre todo, pensó era muy distinta de la
de los grandes filósofos clásicos, aunque no menos estimulante intelectualmente.
 
La invención de la imprenta había dado a la cultura una difusión inconcebible en la
época clásica, dominada aún por la tradición oral. Pero además, en esos años se
estaba gestando uno de los alumbramientos más importantes de nuestra cultura:
estaba naciendo la ciencia. Fueron muchos los descubrimientos que se realizaron en
aquellos años (como puede constatarse en cualquier manual de historia de la ciencia),
pero bastará destacar que en 1543, Vesalio había descrito la anatomía humana con
tremendo rigor (siete volúmenes profusamente ilustrados) contradiciendo la tradición
de Galeno, y que en el mismo año, Copérnico había hecho lo propio con la anatomía
celeste (en contradicción con no menos ilustres antecedentes).

Tenía Descartes trece años (eso sí, ya era un estudiante universitario) cuando Galileo
enfocó por primera vez su telescopio a las estrellas, y treinta y dos cuando Harvey
demostró la teoría de la circulación de la sangre. La contribución del propio Descartes
al surgimiento de la ciencia moderna fue de gran relevancia. Además de sus
aportaciones a la matemática (particularmente, la geometría cartesiana), dotó a la
ciencia de un método. Desde entonces, el método es lo que distingue a la ciencia de
otros acercamientos al conocimiento de la realidad.

En su Discurso del método, Descartes se aplica a sí mismo cuatro preceptos:

i. No admitir como verdadera cosa alguna que no la conociese evidentemente como


tal.
ii. Dividir cada una de las dificultades que examinase en tantas partes como fuera
posible.
iii. Conducir ordenadamente mis pensamientos, comenzando por los objetos más
simples y fáciles de conocer para ascender poco a poco, como por grados, hasta el
conocimiento de los más complejos.
iv. Hacer en todas partes enumeraciones tan completas y revistas tan generales que
estuviera seguro de no omitir nada.

La repercusión de estas cuatro reglas en la historia de la ciencia y de la teoría del


conocimiento ha sido notable (en el próximo capítulo volveremos sobre este punto).
Además, estas restricciones llevaron a Descartes a detallar una teoría del
conocimiento que aclarase qué era eso de las evidentes.

La búsqueda del conocimiento consiste en reducir la realidad a unidades simples y


evidentes, cuyo conocimiento le es dado al espíritu humano de forma innata.
Descartes prescinde de los criterios de autoridad y tradición para la búsqueda del
saber (incluyendo la autoridad de Aristóteles y, hasta cierto punto, la tradición
cristiana), y busca una proposición esencial e irrefutable en la que fundar todo el
edificio del saber.

Descartes encuentra que sólo de la duda puede surgir el verdadero conocimiento, y


entonces duda de sus maestros, de sus razonamientos, de sus sentidos y hasta de su
propia existencia. La duda como método (contenida en el precepto i) le lleva a una
sola verdad autoevidente: el que duda está pensando, y el que piensa debe existir
para poder hacerlo. Su frase cogito ergo sum (pienso, luego existo) se convierte en
una de las sentencias filosóficas más famosas de la historia. No es sólo una
proposición sobre el método, es también la esencia del racionalismo. El pensamiento
es más evidente que la propia existencia. En el sistema de Descartes, unas pocas
ideas innatas sirven de base a otras que nuestra razón puede derivar de ellas. En
esto, el racionalismo cartesiano es menos radical y más sofisticado que el platónico. A
pesar de lo cual, no terminó de convencer a muchos de los más relevantes filósofos de
los años posteriores, como los empiristas británicos.
Descartes fue uno de los últimos grandes filósofos amateur. Utilizó la herencia de su
padre para poder dedicarse a estudiar y recorrer el mundo durante toda su vida. Se
levantaba a mediodía, después de una mañana de profunda reflexión. Nunca fue
profesor y nunca se casó (aunque tuvo una hija que falleció a los cinco años,
produciéndole el mayor dolor de su vida). Después de probar fortuna en los ejércitos
de Holanda, Baviera y Hungría se retiró a la campiña francesa, desde donde cobró
cierta fama como uno de los hombres más inteligentes de su tiempo.

Según cuenta el propio Descartes, cuando estaba en el ejército tuvo un sueño que
podríamos llamar iniciático: se le apareció «el espíritu de la verdad» y le hizo ver que
debía unificar todo el conocimiento humano bajo un sistema regido por las
Matemáticas. A raíz de esto, rechazó su formación escolástica y decidió partir de cero.
Dicen que utilizó su talento matemático en los juegos de azar, a los que era muy
aficionado. También era un buen bailarín. Pero su vida se truncó cuando a la reina
Cristina de Suecia se le ocurrió que podía permitirse recibir las enseñanzas de los
hombres más sabios de su tiempo, y empezó por llamar a Descartes. El filósofo fue
conducido a Suecia en un barco de guerra, e «invitado» a dar clases particulares a la
reina durante cuatro o cinco horas al día a partir de las cinco de la mañana. Descartes
no tenía buena salud, ni costumbre de madrugar de aquella forma, y menos en el
helado invierno sueco. Murió de neumonía pocos meses después.

Al cabo de unos años, sus amigos franceses decidieron que el cuerpo de Descartes
debía reposar en suelo galo y enviaron un ataúd a Suecia. Pero según las autoridades
de aquel país, el ataúd era demasiado corto, así que colocaron en él el cuerpo sin
cabeza, y enterraron de nuevo la cabeza en Suecia, hasta que un oficial del ejército
desenterró el cráneo para guardarlo como recuerdo. Durante 150 años, «la noble
calavera» anduvo en manos de diversos coleccionistas hasta que se volvió a enterrar
en París. Quién le iba a decir al pobre Descartes que sus restos se convertirían
durante años en una metáfora física del dualismo que él lideró.
Cada época intenta comprender el mundo natural tomando como modelo el
conocimiento y el desarrollo tecnológico alcanzado en ese momento. Hoy después del
vapor y la electricidad, el paradigma de referencia es el electrónico, y los ordenadores
constituyen la mayor conquista técnica. Conceptos procedentes de la informática,
como acceso directo, feedback, procesamiento de la información, memoria a corto y
largo plazo, etc, se aplican con naturalidad a la psicología cognitiva y ayudan a
describir aspectos concretos de la actividad mental. En el siglo XVII, el paradigma real
era el mecánico: muelles para los relojes y el agua o el viento como las fuerzas que
impulsaban la tecnología de punta de la época. Consecuentemente, Descartes se
basó en los modelos mecánicos para explicar la conducta y el funcionamiento mental.
Le fascinaban los autómatas o figuras móviles, muy comunes en las fuentes de los
jardines y que merced a los principios hidráulicos, cambiaban de posición por la fuerza
del agua, ejecutaban movimientos de cierta complejidad e incluso cantaban; o los
muñecos mecánicos de las tiendas de las ciudades y los complicados mecanismos de
relojería que los movían. Descartes consideró que los animales eran también
autómatas, una especie de mecanismos de relojería naturales, cuya única diferencia
era que estaban hechos de otros materiales -órganos y partes del cuerpo- y, eso si,
con maquinarias más complejas, así lo explicaba en su discurso del método en 1637:
Su conclusión fue que el proceso de analizar la realidad hasta sus constituyentes más
elementales nos llevaría a topar con verdades inmediatamente evidentes para nuestro
espíritu. Estas verdades son las naturalezas simples. La labor del estudioso es
distinguir lo simple de lo complejo para poder descomponer esto último y enfrentarse
siempre a las naturalezas simples, que son las que hacen posible el conocimiento.

"...- - - lo cual no parecerá de ninguna manera extraño a los que, sabiendo cuántos
autómatas o máquinas semovientes puede construír la industria humana, sin emplear
sino poquísimas piezas en comparación de la gran muchedumbre de huesos,
músculos, nervios, arterias, venas y demás partes que hay en el cuerpo de un animal,
consideren este cuerpo como una máquina que, por ser hecha por manos de Dios,
está incomparablemente mejor ordenada y posee movimientos más admirables que
ninguna otra de las que puedan inventar los hombre..."
Las personas también son maquinarias, pero con una diferencia esencial: tienen alma.
Descartes creía que los espíritus animales se formaban de la glándula pineal que sitúo
erróneamente en el interior de un ventrículo. Según el filósofo francés, esta glándula
que ya era conocida desde la antigüedad y recibía ese nombre por su parecido a un
piñón, pendía libremente en la cavidad del ventrículo y estaba tapizada toda ella de
finísimos conductos que filtraban la sangre y destilaban los espíritus animales.

"Si alguien dispara rápidamente su mano contra nuestros ojos, como para pegarnos,
aunque sepamos que es nuestro amigo, que sólo hace eso en broma y que se
guardara muy bien de causarnos mal alguno, no es sin embargo muy difícil no
cerrarlos; lo que demuestra que no se cierran por intervención de nuestra alma,
puesto que ello ocurre contra nuestra voluntad, sino que se cierran porque la máquina
de nuestro cuerpo está construida de tal modo que al movimiento de esa mano hacia
nuestros ojos provoca otro movimiento en nuestro cerebro, que conduce los espíritus
animales a los músculos que hacen bajar los párpados..."
... Y por último, lo que hay de más notable en todo esto, es la generación de los
espíritus animales, que son como una purísima y vivísima llama, la cual asciende de
contínuo muy abundante desde el corazón al cerebro y se corre luego por los nervios
a los músculos y pone en movimiento todos los miembros...Similarmente puedes
haber observado en las grutas y fuentes en los jardines de nuestros reyes que la
fuerza que hace el salto de agua desde su origen es capaz por sí misma de mover
diversas máquinas o incluso hacerles tocar ciertos instrumentos o pronunciar ciertas
palabras según las varias disposiciones de los tubos por los que el agua es
conducida...
Y verdaderamente, uno podría comparar muy bien los nervios de la máquina que
estoy describiendo (el cuerpo) a los tubos de los mecanismos de estas fuentes, sus
músculos y tendones, a los diversos otros dispositivos y muelles que sirven para
mover estos mecanismos, sus espíritis animales, al agua que conducen. El corazón es
la fuente y las cavidades del cerebro, el acueducto principal...

En este sentido, Descartes se considera que fue el primero que hizo una descripción
detallada del reflejo nervioso, aunque sin designarlo con ese término.

Dualismo cartesiano

Descartes es muy citado desde la neurociencia y la filosofía de la mente como


paradigma de la concepción dualista del ser humano. Desde su punto de vista, el
mundo se compone de dos clases de sustancias radicalmente distintas: la materias y
el espíritu. (Res extensa y Res cogitans). La mente (alma) sería algo con existencia
propia, una entidad separable del cuerpo. El cuerpo sin la mente es sólo una máquina,
un autómata muy perfecto pero vacío, al igual que el de los animales. Descartes
entiende que la mente y el cuerpo son entidades distintas pero deben estar
íntimamente unidas y es precisamente en la glándula pineal donde - en su opinión -
tiene lugar la profunda unión entre ambos. Hoy sin embargo, se sostiene un monismo
básico: no hay por así decirlo, dos clases de átomos o elementos, unos "físicos" y
otros dotados de "mente". La ciencia enseña que la mente es una función del cerebro
y el cerebro es un órgano - eso sí, muy complejo - constituido por los mismos
elementos básicos que el resto de los órganos y objetos del universo. Por lo que se
sabe, dejando a un lado cualesquier creencia, la mente no es una entidad flotante
separable del cuerpo. Cuando el cerebro muere y se descompone, desaparece todo
vestigio de conducta y actividad mental de esa persona o animal; eso es lo que
enseña una y otra vez la experiencia de la vida, generación tras generación sin
excepciones. Si el cerebro se deteriora por alguna enfermedad neurodegenerativa,
también se asiste, desgraciadamente a la paulatina disolución de la personalidad y de
la función mental del enfermo. La mayor parte de la comunidad científica está de
acuerdo en que la mente es producto del funcionamiento del cerebro, es decir, no
acepta dualidad cartesiana de cuerpo y mente como entes disgregables con
existencias propias. En esta dirección es ilustrativo el título que el neurocientífico
Antonio Damasio, premio Príncipe de Asturias de 2005, escogió para uno de sus libros
más celebres: "El error de Descartes". Sin embargo, en honor a la verdad, hay que
decir que el rechazo del dualismo no es unánime. Algunas figuras prominentes, como
el filósofo Karl Popper, el neurofisiólogo y premio Nobel, John Eccles, han defendido el
dualismo durante toda su vida, pero esto es la excepción.
En cierto modo, la historia del cerebro es una historia paralela a la idea de la vida.
Hace 200 años parecía inconcebible que la materia viva fuera de la misma clase que
la inerte, se creía en la existencia de elan o una fuerza vital que confería a los seres
vivos una naturaleza distinta. Ahora se sabe que los seres vivos se constituyen de
ácido desoxirribonucléico (ADN) y amino ácidos formados por átomos de carbono,
oxigeno,nitrógeno, azufre, etc. La diferencia en la especie humana y animal, radica en
la organización de dichos elementos: la materia viva de los mismos ingredientes que la
inerte pero organizados y combinados de un modo mucho más complejo.

Fin de los "espíritus animales".

Durante el siglo XVII, el largo reinado de los espíritus animales comenzó a


tambalearse y en unas décadas cayó definitivamente. Al intentar explicarlos desde las
leyes físicas de la hidrodinámica, se los vio con una miarda cada vez más naturalista y
esto fue su sentencia de muerte porque sencillamente las observaciones no coincidían
con lo que cabía esperar. Por ejemplo si los espíritus animales circulaban dentro de
los nervios huecos, estos no se mostraban huecos por ninguna parte. Leuwenhoek, el
gran pionero microscopista, por más que lo intentara no conseguía encontrar el orificio
del nervio óptico de una vaca, pese a que Galeno había asegurado que era perceptible
e incluso a simple vista. Si se ligaba un nervio con fuerza, no se hinchaba por la
presión de los espíritus. El biólogo holandés Jan Swammerdam (1637-1680) llevó a
cabo lo que algunos consideran uno de los experimentos más importantes del siglo
XVII. Demostró de manera incontrovertible que cuando los músculos se contraen,
éstos no aumentan de volumen por la llegada de espíritus animales a la masa
muscular, siendo este un aspecto clave en la hipótesis espiritual. No debe olvidarse
según Descartes, que los espíritus animales tenían una realidad material.
00:0600:09
En este contexto, los últimos coletazos de los espíritus animales se producen en el
siglo XVII, y René Descartes (1596-1650) sería uno de los últimos en defender su
existencia, pero ahora con un aire nuevo, contemporáneo, propio de la Edad moderna.
No realiza experimentos ni disecciones, es fundamentalmente un pensador y sus
reflexiones apuntan a aspectos centrales del dilema "cuerpo-mente". Pretende explicar
en funcionamiento de los espíritus animales de acuerdo con el conocimiento
tecnológico de la época y esto supone, en realidad, un gran paso hacia su abandono
definitivo.

PRIMER ACTIVIDAD DE APRENDIZAJE:  Elaborar un mapa conceptual en el que se


aborden de manera breve pero concreta, las principales teorías sostenidas por René
Descartes en sus conceptos de la Res Extensa y la Res Cogitans.

UNIDAD 1.- ANTECEDENTES HISTÓRICOS. PARTE II. 


Electricidad animal.

Si los músculos del cuerpo no se contraen por la acción de unos misteriosos espíritus
animales, como había demostrado Swammerdam, ¿cual es la causa entonces de su
movimiento que tan dócilmente sigue la voluntad del cerebro?. El holandés
comprendió que la ciencia de su época no podía resolver es dilema y confesó 
impotente que la respuesta "se entierra en la impenetable oscuridad". Habría que
esperar casi un siglo hasta los decisivos experimentos de Galvani.

En el siglo XVIII se puso de moda la electricidad estática generada por grandes


máquinas de fricción. Inicialmente la máquina más común era una gran bola de azufre
que se hacía girar en torno a un eje, mientras se colocaba una mano sobre ella;
después se sustituyó por ruedas de vidrio y otros materiales más efectivos. El caso es
que la persona quedaba tan cargada de electricidad, que causaba un tremendo
chispazo al tocar cualquier objeto.
Junto a esto, la invención de la denominada "botella de Leyden" permitió almacenar la
electricidad para uso futuro. En la alta sociedad de aquellos años era común un juego
que  consistía en formar un círculo de personas cogidas de la mano y una botella
Leyden en el extremo; cuando el círculo se cerraba, todos experimentaban una
violenta pero inofensiva descarga. En los mercados, algunos tipos hacían
demostraciones matando pajarillos o pequeños ratones de un chispazo. La nueva
fuerza tenía también una propiedad asombrosa: era capaz de agitar piernas y brazos
paralizados durante años; así que no es extraño que le atribuyeran virtudes casi
milagrosas en su época, que el tiempo se encargaría de desmentir.  En ese ambiente
del siglo de las luces, y una vez descartada la hipótesis de los espiríutus animales, los
fisiólogos pensaron que talvés era electricidad lo que secretamente recorría los nervios
para mover el cuerpo. Pero una cosa era plantear esa vaga posibilidad y otra
demostrarlo de modo irrefutable como lo hizo Galvani.

Luigi Galvani (1737-1798) profesor de anatomía en la Universidad de Bolonia, llevó a


cabo una serie de largos experimentos que no publicaría sino hasta 10 años después
en su libro de 1791 "De viribis electricitattis in motu musculari:
commentarius (Comentario sobre el efecto de la electricidad en el movimiento
muscular). En lugar de la universidad, prefirió montar el laboratorio en su propia casa
-como también harían Cajal y otros científicos - y ahhí dispuso de una amplia dotación
de artilugios eléctricos -máquinas de fricción y botellas de Leyden - y la inestimable
ayuda de su sobrino. Galvani empleó decenas de ranas en múltiples ensayos para
corrobora su idea de que existía una electricidad propia del animal, probablemente
generada en el cerebro que recorría los nervios y movía los músculos. Observó  que
las preparaciones frescas de ancas de rana se contraían por acción de la chispa
eléctrica de una máquina de fricción o incluoso por la electricidad ambiental en un día
de tormenta. Finalmente, el experimento más contundente, fue, a su vez, el más
sencillo. Tomó  un anca de rana recién muerta y estiró bien su nervio ciático hasta que
lo puso en contacto con el propio músuculo del muslo y ¡sorpresa! el anca se contraía
visiblemente sin necesidad de electricidad exterior. También obtuvo el mismo
resultado al poner con contacto el nervio de una preparación con el nervio de otra. De
esta manera, demostró que el fluido eléctrico procedía del interior del animal y que ese
era el enigmático elemento que viajaba por los nervios y accionaba los músculos.

UNIDAD 1. ANTECEDENTES HISTÓRICOS. PARTE III. LA CORTEZA CEREBRAL Y


LOS DEBATES SOBRE SU FUNCIÓN
Hoy se conoce que los procesos cognitivos más complejos se asientan sobre redes
neuronales en las que participa de  modo fundamental la corteza o córtex cerebral.
Durante el siglo XVIII, y antes, a esta envoltura gris rosácea se le consideró una mera
e insignificante "corteza o revestimiento" que es el sentido que tiene la palabra córtex
en latín. En el siglo XIX se comienza a comprender su importancia y podría afirmarse
que, este es el siglo de la corteza cerebral y de los acalorados debates en torno a su
función. Hay un eje de discusión que recorre la centuria, que es el entablado entre
los localizacionistas, convencidos de que cada función mental se localiza en un lugar
específico de la corteza y los holistas que ven a la corteza como un todo
indiferenciado.

LA FRENOLOGÍA.
A principios del siglo XIX surgió  la denominada frenología, un movimiento - no
clasificado como ciencia - fundado por el alemán Franz Joseph Gall (1758-1828) que
ejercía una enérgica influencia a lo largo de los años siguientes. Apareció en un
contexto repetitivo, una época en la que estaba en boga la fisiogmomía o arte -
tampoco considerado como ciencia - de adivinar los rasgos de la personalidad a través
de las características físicas de la cara y el cuerpo. Actualmente puede afirmarse en el
terreno de la ciencia de las diferencias individuales, la correlación matemática entre
rasgos físicos y rasgos psicológicos, es en general muy baja prácticamente nula, pero
en aquella época la gente tendía a otorgar carta de naturaleza a esa convicción
legitimada por "expertos" con pretensiones científicas. Sirva de anécdota que Darwin
estuvo a punto de no embarcar en el Beagle porque al capitán Fitz-Roy no le gustó su
nariz y temía que careciera, según los manuales, de la energía y determinación
suficientes para el viaje. Quizá la historia científica de la evolución habría sido distinta
por culpa de un apéndice nasal.

Franz Joseph Gall menospreciaba a la fisiognomía según él por ingenua y acientífica,


pero desgraciadamente, incurrió también en el mismo error. El termino frenología
procede del griego phrenos "mente" y logos "conocimiento" para designar a una
ciencia de la mente. Este nombre lo introdujeron después sus seguidores, porque Gall
siempre se refirió a su "ciencia" como "organología" o "tratado de los órganos de la
mente". Partía del supuesto de que el aspecto de la cabeza informaba sobre las
capacidades y personalidad del individuo. Veía al cerebro como un mosaico de
órganos especializados en distintas funciones psicológicas, y el mayor o menor
desarrollo de cada uno de estos órganos se reflejaba en la forma craneal. Así con una
cuidadosa inspección del cráneo - craneoscopía - tomando medidas y observando los
distintos abultamientos y prominencias, el frenólogo creía identificar la inteligencia y
los rasgos psicológicos de cualquier persona. Gall propuso un listado de 27 funciones
mentales localizadas en sitios muy concretos del cerebro. 19 de las cuales eran
comunes a animales y seres humanos y ocho eran exclusivas de estos últimos.
Facultades mentales según la frenología
Compartidas por seres humanos y animales
1.- Instinto reproductor
2.- Amor por los hijos
3.- Afectividad o amistad
4.- Instinto de autodefensa o coraje
5.- Destructividad, instinto carnívoro o tendencia al asesinato
6.- Astucia
7.- Deseo de poseer cosas
8.- Orgullo
9.- Vanidad o ambisión
10.- Circunspección o cautela
11.- Memoria para hechos o cosas
12.- Sentido del lugar
13.- Memoria para palabras
14.- Memoria para personas
15.- Sentido del lenguaje
16.- Sentido del color
17.- Sentido de los sonidos o la música
18.- Sentido de los números
19.- Sentido de la mecánica o arquitectura
Exclusivas de los seres humanos
20.- Juicio
21.- Sentido de la metafísica
22.- Sátira e ingenio
23.- Talento poético
24.- Amabilidad y benevolencia
25.- Imitación
26.- Sentimiento religioso
27.- Firmeza de propósito
Por ejemplo, si un ladrón tendía a reincidir, Gall hallaba que su cráneo tenía muy
desarrollada la zona de la función de adquirir o poseer cosas, esto lo complementaba
con observaciones ocasionales en animales, por ejemplo, en una mascota que
mostraba tendencia a comer cómoda "robada". Al comparar la cabeza de una madre
amorosa con sus hijos y la de una mujer descuidada con los suyos, observaba que la
de ésta última tenía la parte posterior menos prominente, que era donde
supuestamente se alojaba en instinto reproductor y el amor filial.

Franz Joseph Gall visitaba prisiones y asilos para inspeccionar las peculiaridades
craneales de ladrones, asesinos, lunáticos o deficientes mentales. También estudiaba
las cabezas de personas brillantes que habían destacado en alguna cualidad. A los
casos clínicos de enfermedad los consideraba poco valiosos por su carácter atípico y
fortuito, pero si un paciente confirmaba sus ideas no dudaba en incluirlo como una
prueba más. Gall sentía una verdadera pasión por la colección de cráneos; en París,
llegó a reunir cerca de 300 de ellos, junto a un centenar de moldes de personas vivas.
En su opinión, constituían un verdadero libro abierto que lo reafirmaba en sus
convicciones. En ciertos círculos se bromeaba que al morir había de asegurarse de
que el frenólogo no despojaría de la cabeza al cadáver de uno, por lo que hubo quien
dejó escrita en el testamento, la prohibición de efectuar tal cosa. Cuando Gall falleció
de un ictus en 1828, su cráneo pasó a engrosar la colección por expreso deseo suyo.
La frenología arraigó durante las primeras décadas del siglo XIX, tanto entre las clases
populares como en los circuitos intelectuales. El mismísimo Darwin fue diagnosticado
por frenólogos según cuenta en su autobiografía.

"Si se puede confiar en los frenólogos, yo era idóneo en cierto sentido para ser clérigo.
Hace unos años, los secretarios de una sociedad psicológica alemana me pidieron
con toda seriedad por carta una fotografía. Algún tiempo después recibí las actas de
una de sus reuniones en la cual se había debatido, al parecer, públicamente, sobre la
forma de mi cabeza y uno de los ponentes había declarado que "tenía la
protuberancia de la reverencia suficientemente desarrollada como para diez
sacerdotes" (Darwin, 1887) (cursiva del autor).

Se afirmaba esta característica precisamente de él que, a lo largo de su vida y a


medida que avanzó en el conocimiento de la naturaleza, fue derivando hacia un
profundo agnosticismo. 
En primer lugar se demostró que el cráneo no reflejaba en absoluto la forma del
cerebro, ni siquiera su tamaño. En segundo lugar, el método de Gall no fue riguroso y
se basó en observaciones casuales que aceptaba caprichosamente en la medida que
cumplían sus expectativas, y cuando no era así, las rechazaba con cualquier pretexto.
Es decir, el método no estuvo al servicio de la verdad de los datos, sino al de unas
ideas preconcebidas. A su más firme oponente, el académico francés Pierre Flourens
(1794-1867), la Academie des Sciences le encargó poner a prueba las hipótesis de
frenológicas mediante una metodología rigurosamente científica. Flourens inició en
1820 una larga serie de experimentos con animales, sobre todo, ranas, palomas,
gallinas y otras aves y no halló rastro de especialización cortical, aunque hoy se sabe
que la razón de ello es que estudió especies que no tienen la corteza poco
desarrollada.
Como se señala en Breve historia del cerebro (antes mencionada), en este recorrido
histórico se hace evidente una situación paradójica: un hombre, Gall, con una de base
cierta - diferenciaciones funcionales en la corteza cerebral - pero común método
acientífico es alejado de todos los estándares metodológicos, mínimamente exigibles,
frente a un hombre con una metodología impecable, Flourens, pero cuya premisa
básica - indiferenciación cortical - el futuro revelaría errónea. La moraleja de todo este
asunto es que lo único que permitió avanzar, fue ciertamente, la metodología científica
y rigurosa.

Si hoy se reconoce que la idea básica de la frenología - especialización funcional - de


diferentes áreas de la corteza cerebral - no era descabellada, la aplicación de una
metodología a científica y sesgada condujo a tesis totalmente erróneas que
acabaron en el descrédito.
LOCALIZACIÓN DEL LENGUAJE:

En 1861, el neurofisiólogo francés, Pierre-Paul Broca (1824-1880) publicó lo que a


juicio de muchos autores sería el informe clínico más importante del siglo XIX. En su
publicación se demostró que hay una parte del cerebro especializada en las
funciones lingüísticas, de manera que, si se lesiona, el habla desaparece o queda
gravemente afectada (afasia de Broca). Esta historia se ha contado en innumerables
ocasiones. El informe trataba de Leborgne, un paciente de 51 años transferido al
servicio quirúrgico de Broca, en el hospital parisino Bicentre. Durante años había
sufrido una parálisis de la mitad derecha del cuerpo junto a una llamativa incapacidad:
no podía hablar, aunque oía bien y parecía entender el lenguaje. Se le conocía como
"Monsieur Tan" o "Tan-Tan" porque era lo único que lograba pronunciar. Cuando
Leborgne ingresó, su estado ya era crítico y murió una semana más tarde. Al
practicarle la autopsia, Broca encontró una lesión importante en su cerebro,
propiamente en el lóbulo frontal del hemisferio izquierdo. Presentó sus observaciones
a la "Societé d´ Anthropologie" de la que era fundador y concluyó que esa lesión  era
el origen de su incapacidad de hablar. El cerebro de Leborgne se conserva hasta hoy
en el museo Dupuytren en País. 

El informe de Broca tuvo un impacto  científico y supuso un fuerte apoyo a las tesis
localizacionistas porque demostraba claramente una localización cortical para una
función específica. Sin embargo no era la primera vez que se relacionada "la pérdida
del habla" con un daño cerebral. ¿Por que entonces resultó tan relevante?.

El historiador norteamericano y profesor emérito en psicología Stanley Finger propone


cuatro razones:

a) Broca aportó  más información detallada que la ofrecida en casos anteriores; 


b) Broca delimitó su área del habla en una zona cortical muy distinta a las propuestas
en casos anteriores;
c) Es espíritu de los tiempos había cambiado y, la comunidad científica esa más
proclive a distinguir entre el sistema desacreditado de los "bultos" en el cráneo
propuestos por los frenólogos décadas atrás y el nuevo enfoque de estudiar las
lesiones del cerebro; y
d) La propia credibilidad de Broca, él no estaba  personalmente implicado en el debate
localizacionista - holista y gozaba de un gran prestigio; no era un hombre impulsivo y
defendía con firmeza sólo aquello de lo que estaba absolutamente seguro, por lo que
se le percibió como un juez imparcial.

En los años posteriores al informe sobre  "Monsieur Tan", Paul Broca documentó
varios casos adicionales que presentaban la misma zona lesionada, hoy conocida
como -Área de Broca- y los mismos síntomas de pérdida o dificultad del habla. Todos
ellos tenían la lesión en la parte izquierda del cerebro, de modo que, se puso de
manifiesto la especial importancia que el hemisferio izquierdo tiene para el lenguaje en
la gran mayoría de las personas.

Poco tiempo después, un neurólogo alemán de origen polaco, Carl Wernicke (1848-


1905) refirió un nuevo tipo de trastorno del lenguaje causado también por daño
cerebral. En este caso, la lesión se situaba más atrás, en el lóbulo temporal izquierdo,
en una zona próxima al área auditiva, en donde el paciente mostraba síntomas muy
distintos a los observados por Broca: dificultades graves de comprensión verbal. El
informe constituyó la primera descripción clínica de los que hoy se denomina "afasia
de Wernicke", en la que el enfermo, sin padecer sordera, no entiende lo que se le dice.

LOS EXPERIMENTOS DE BERLÍN:


El descubrimiento de la corteza motora.

Los casos clínicos de Broca y de otros neurólogos indicaban la existencia  de una


zona en la corteza cerebral encargada del lenguaje humano. Este hallazgo apuntaba
en la dirección de que quizá la corteza tuviese lugares particulares o localizaciones
para otras funciones específicas y no sólo para el lenguaje. Lo anterior era uno de los
aspectos del debate localizacionista-holista, pero faltaba la prueba experimental
definitiva más allá de los casos clínicos. La demostración se produjo en Berlín, gracias
a los célebres experimentos del tándem formado por los alemanes Gustav
Fritsch (1838-1927) y Edward Hitzig (1838-1907), quizá los experimentos más
importantes del siglo, en opinión muy extendida. Evidentemente, tratándose de
ensayos sobre el cerebro, el sujeto forzosamente no tenía que ser humano. Adscritos
al Instituto Fisiológico de Berlín y al no disponer esta institución de espacios y medios
para animales, Hitzig ofreció su casa y habilitó una habitación como laboratorio para
trabajar con perros. Buscaban descubrir alguna región cerebral que fuera responsable
de los movimientos del animal y cuya existencia era materia de encendidas
discusiones. La idea era acceder al cerebro canino (retirando fragmentos del cráneo)
estimular con un electrodo  diversos puntos de la superficie y advertir si se obtenía un
efecto visible en algún lugar del cuerpo. Sabían que cuando la electricidad era muy
intensa, ésta se extiende por toda la corteza y desata convulsiones generalizadas, por
lo que se sirvieron de una batería de corriente contínua y ellos mismos ensayaban
sobre su lengua la mínima intensidad galvánica capaz de dar un calambre. Todo esto
se practicaba "en vivo" y los primeros ensayos transcurrieron sin anestesia, de suerte
que no es difícil imaginar los aullidos y el sufrimiento del animal; posteriormente
emplearían un anestésico. Tras repetidos intentos, encontraron unas zonas
relativamente escondidas en la parte anterior del cerebro, que al estimularlas
originaban movimientos corporales del lado opuesto. Además, los movimientos
seguían cierto orden en un punto concreto, la estimulación causaba contracciones de
la pata delantera; al excitar  otro punto cercano, se desataban espasmos en el cuello;
en otro, aparecían en la parte trasera. Se iba dibujando así, una especie de mapa
cerebral en el que estaban representadas, de forma grotesca, las diversas partes del
cuerpo. Y estas sacudidas eran repetibles si se volvían a estimular los mismos sitios.
De esta forma, la mancuerna constituída por Fritsch e Hitzig demostró a la comunidad
neurocientífica la existencia de una zona motora, origen del movimiento corporal y
ambos investigadores han pasado a la historia como sus descubridores.

Gustav Fritsch y Edward Hitzig


LA CORTEZA SENSORIAL.
No puede concluirse la referencia del siglo XIX sin destacar la importancia del trabajo
del escocés David Ferrier (1843-1928) y sus trabajos con primates.

Mediante los procedimientos de la lesión experimental y la estimulación eléctrica


cerebral, Ferrier buscaba descubrir una hipotética corteza sensorial o aquellas partes
de la corteza que presumiblemente se encargarían de la información procedente de
los sentidos. Al comparar distintas especies, Ferrier observó que cuanto más
evolucionado era el animal  más claros y significativos parecían los resultados, por lo
que centró su investigación en el animal más próximo al ser humano. De esa manera
pudo identificar distintas áreas sensoriales de la corteza, entre ellas la "auditiva
primaria" y confeccionar un conjunto de mapas funcionales reunidos en su magnífica
obra de 1866 "The Functions of the Brain". La obra presentaba magníficos dibujos del
cerebro de un mono con mapas de las zonas responsables de las distintas
funciones. Tal era su confianza sobre la existencia de estos mapas también en las
personas, que las mismas zonas aparecen extrapoladas sobre el dibujo de un cerebro
humano, aunque aún no había constancia experimental de ello.

Célebres fueron sus brillantes debates en el Congreso Internacional de Londres en


1881 y su posterior peripecia judicial tras recibir la denuncia de una influyente
asociación londinense que lo acusaba de quebrantar el acta contra la crueldad a los
animales. El juicio levantó una gran expectación mediática y profesional porque ponía
en la picota a toda la investigación neurocientífica con animales vivos y ocupó páginas
en los principales diarios británicos entre ellos el Times, ante una opinión pública
dividida. Un buen número de especialistas escribió artículos a su favor en revistas
científicas de todo el mundo. Tras varias sesiones abarrotadas de médicos y
periodistas, Ferrier fue absuelto pues demostró que usaba anestesia en sus
operaciones y no infligía daño innecesario a los animales. Con toda seguridad, en la
decisión judicial influyeron la existencia de casos clínicos que se habían beneficiado
de sus "mapas funcionales" como así adujo la defensa. Eran pacientes cuyos
cirujanos, siguiendo los hallazgos de Ferrier habían podido predecir la ubicación de un
tumor o un absceso cerebral, y trepanar el cráneo directamente sobre la zona
sospechosa. En 1878, Ferrier junto a su amigo  John Hughlings Jackson, fundó la
prestigiosa revista "Brain" que hoy continúa siendo una de las publicaciones de mayor
impacto mundial en su ámbito.

Durante el siglo XIX se barajó la idea de que el cerebro tenía distintas partes
identificables que probablemente podrían llevar a cabo diferentes funciones: la
percepción, la emoción o el lenguaje se podían localizar en sistemas neurales
anatómicamente diferenciados.
EL SIGLO XX. LAS NEURONAS Y LA QUÍMICA CEREBRAL
Hasta el siglo XIX, los principales avances sobre el cerebro se referían sobre todo a su
estructura macroscópica, la que puede verse a simple vista. Al pasar al siglo XX, los
interrogantes se tornaron más ambiciosos y el progreso de la microscopía y las
técnicas de tinción abrieron nuevas posibilidades en el estudio de su estructura íntima.
Es el siglo en el que se reconoció a la neurona como la unidad fundamental del
sistema nervioso, la pieza básica que compone el cerebro así como los nervios de
animales y personas.

A finales del siglo XIX, los anatomistas miraban perplejos las complicadas formas de
las células nerviosas y, sobre todo, la intrincada maraña de filamentos que las rodeaba
o procesos como se les denominaba. En ese tiempo ya era conocida la célula y se
aceptaba la teoría celular de los seres vivos, pero existía el convencimiento de que el
sistema nervioso era distinto y no se ajustaba a dicha teoría. Esta confusión nacía de
dos problemas, primero no estaba claro si los largos axones y las más cortas pero
ramificadas dendritas, visibles al microscopio, tenían algo que ver con los cuerpos
celulares de las neuronas; estaba aún menos claro si ambos tipos de filamento se
originaban desde una célula individual; En segundo lugar, los fisiólogos no podían
visualizar la membrana de las células nerviosas, de manera que el sistema nervioso se
presentaba como una inmensa red sin separaciones internas. El impulso nervioso
correría libremente por aquella estructura reticular, y ésa era la explicación dominante
-Teoría reticular- hacia el cambio de siglo.

Tan pronto como en 1873, un reticulista convencido tropezó con un hallazgo fortuito
que habría de revolucionar la microscopía. El médico italiano Camilo Golgi (1843-
1926) trabajaba en un hospital cercano a Milán y dedicaba parte de su tiempo a la
investigación básica; cierto día se le ocurrió ensayar sobre las preparaciones
nerviosas un nuevo procedimiento de tinción basado en el nitrato de plata. Sucedió en
la humilde cocina del hospital habilitada como laboratorio y Golgi nunca explicó cómo
le vino la idea de usar dicha sustancia, un material sensible a la luz que se estaba
empezando a aplicar en la fotografía. Endureció sus muestras con dicromato potásico
y luego las introdujo en una solución de nitrato de plata durante 2 o 3 días; finalmente
las trató con baños de alcohol y aceites, las lavó y cortó en láminas para el
portaobjetos. Cuando Golgi miró a través del microscopio, descubrió estupefacto que
el nitrato de plata propiciaba una enorme "reazione nera" (reacción negra) que
mostraba a las células  y los afilados filamentos en un negro intenso sobre un fondo
amarillo ámbar con una nitidez tan extraordinaria que parecían delicados dibujos de
tinta china.
Empleando su método, Camillo Golgi identificó una clase de célula nerviosa,
bautizada con su nombre, dotada de unas extensiones (o dendritas) mediante las
cuales conectaba entre sí otras células nerviosas. 

Continuó su detenido examen de las células nerviosas, obteniendo pruebas de la


existencia en la célula de una red irregular de fibrillas, cavidades y gránulos
(denominada aparato de Golgi) que desempeña un papel esencial en operaciones
celulares tan diversas como la construcción de la membrana, el almacenamiento de
lípidos y proteínas o el transporte de partículas a lo largo de la membrana celular.

Entre 1885 y 1893 se dedicó al estudio del paludismo, obteniendo, entre otros,
resultados tan importantes como la distinción entre el paludismo terciano y cuartano en
cuanto patologías provocadas por dos especies diferentes de un mismo protozoo
parásito denominado Plasmodium, y la identificación del mencionado acceso febril
como originado por la liberación por parte de dicho organismo de esporas en el flujo
sanguíneo. En 1906 compartió con Ramón y Cajal el Premio Nobel de Fisiología y
Medicina.

Años más tarde, el médico español Santiago Ramón y Cajal (1852-1934) introdujo


algunos cambios en el método de tinción de Golgi que potenciarían notablemente su
eficacia. Por algún motivo, hasta hoy desconocido, la "reacción negra" ocurre sólo en
unas pocas neuronas -menos del 1% del total- lo cual es algo favorable, ya que si
todas reaccionaran de la misma manera en la preparación, se obtendría una gran
mancha obscura inservible. Sin embargo, esta propiedad representa un inconveniente:
le confiere al método cierta impredictibilidad, porque el investigar no puede decidir de
antemano que células y cuantas van a reaccionar. Esta circunstancia había frustrado a
muchos investigadores y cuando Cajal tuvo noticia de la técnica, 14 años después,
ésta había pasado relativamente inadvertida. 
Cajal comprobó que se obtenían mejores resultados si los cortes histológicos eran
más gruesos -doble impregnación- lo que le permitió observar como se conectaban
dos o más células. Al ver las imágenes espectaculares que se obtuvieron, no pudo
reprimir el impacto que le causaron y así lo refirió en uno de sus libros más
importantes intitulado "Textura del sistema nervioso del hombre y los vertebrados":
"Espectáculo inesperado: sobre un fondo amarillo perfectamente traslúcido aparecen
desparramados filamentos negros lisos y delgados o espinosos y espesos; cuerpos
negros, triangulares estrellados, fusiformes. Se diría que se trata de dibujos en tinta
china sobre un papel transparente del Japón. El ojo está desconcertado, aquí todo es
sencillo, claro, sin confusión, ya no es necesario interpretar, sino ver y constatar".
Cajal emprendió un estudio sistemático de la estructura íntima del sistema nervioso y
tuvo una idea inteligente: trabajar sobre embriones y animales jóvenes. El compuesto
de plata actúa mejor sobre los nervios desprovistos de la envoltura grasa de mielina y
las neuronas destacan mucho más. Así reflexionaba en su autobiografía "Recuerdos
de mi vida" de 1917:
"Puesto que la selva resulta impenetrable e indefinible, ¿por qué no recurrir al estudio
del bosque joven, como si dijéramos en estado de vivero? Escogiendo bien la fase
evolutiva (del embrión) las células nerviosas, relativamente pequeñas, destacan
íntegras dentro de cada corte; las ramificaciones terminales del cilindroeje dibujándose
clarísimas y perfectamente libres; los nidos pericelulares (...) aparecen sencillos,
adquiriendo gradualmente intrincamiento y extensión; en suma, surge ante nuestros
ojos, con admirable claridad y precisión, el plan fundamental de la composición
histológica de la sustancia gris".

Cajal comenzó de este modo la increíble colección de dibujos que hoy se conoce,
ejecutados a tinta china con una precisión y maestría geniales. Estudió cerebelos de
aves, retinas, bulbos olfativos, cortezas, troncos cerebrales, médulas espinales y
siempre encontraba el mismo patrón pese a la enorme variedad de formas neuronales.
Dendritas y axones forman parte de un único cuerpo celular y son independientes de
las dendritas y axones de otras neuronas; no hay, por lo tanto, continuidad,
sino contigüidad entre elementos próximos pero distintos. Por más que buscó, no
halló evidencia de que las conexiones se fusionaran en una red contínua. Fue
surgiendo así un cuadro mucho más ordenado y comprensible del sistema nervioso:
ahora se mostraba constituido por células nerviosas individuales, cada una con un
cuerpo celular y sus propias conexiones; ya no era una colección de núcleos perdidos
en una confusa maraña de filamentos. En palabras de un contemporáneo suyo,
gracias Cajal "El bosque impenetrable del sistema nervioso se ha convertido en un
parque regular y deleitoso".
DIBUJOS DE SANTIAGO RAMÓN Y CAJAL
¿Como dar a conocer al mundo los descubrimientos obtenidos de sus magníficas
preparaciones?

Para aquel entonces, Cajal casado con doña Silveria Fañanás García con quien había
procreado 7 hijos, era catedrático en la Universidad de Barcelona, pero era un hombre
realmente con pocos recursos económicos, los cuales provenían de la cátedra. 

En el otoño de 1889 se celebraría en Berlín, Alemania el congreso más importante del


mundo en su especialidad "Histología y Anatomía patológica" que reuniría a la élite de
la anatomía mundial. El médico español consideró que sería una buena oportunidad
para mostrar sus descubrimientos. Cajal no hablaba alemán, sólo un poco de francés,
lo cual invariablemente dificultaría su comunicación con otros especialistas en aquel
congreso.

Tras solicitar permiso del rector de la Universidad de Barcelona para asistir a dicho
congreso, Cajal viajo a Berlín con el dinero de todos sus ahorros y con su microscopio
bajo el brazo. Viajó en un vagón de tercera y se hospedó en un hostal de tercera en
Berlín. El propio Cajal hace referencia de lo acontecido en su autobiografía al
mencionar:

"Obtenido el permiso del rector (...) para tomar parte en las tareas del susodicho
Congreso, reuní todos mis ahorros y me encaminé lleno de esperanzas a la capital del
imperio germánico. (...) Desde muy temprano me instalé en la sala laboratorio ad hoc,
donde en largas mesas y enfrente de amplios ventanales, brillaban numerosos
microscopios. Desembalé mis preparaciones, requerí de dos o tres instrumentos
amplificantes, además de mi excelente modelo Zeiss, traído por preparación, enfoqué
los cortes más expresivos concernientes a la estructura del cerebelo, retina y médula
espinal y en fin, comencé a explicar en mi pésimo francés ante los curiosos el
contenido de mis preparaciones. Algunos histólogos me rodearon, pocos, porque
según ocurre en tales certámenes, cada congresista atiende a lo suyo: después de
todo, natural es que se prefiriera enseñar lo propio que examinar lo ajeno"

Cajal añade en su autobiografía que: "a los científicos extranjeros presentes en aquel
Congreso “les chocaba, sin duda, encontrar un español aficionado a la ciencia y
espontáneamente entregado a las andanzas de la investigación.”

Tal vez por ello, pocos de estos sabios, por entonces celebridades mundiales,
atendían a sus explicaciones, y los que más o menos atendían, lo hacían con
escepticismo… sin duda esperaban un fiasco…

Hasta ese momento, nada fuera de lo habitual estaba ocurriendo, Cajal debía
ingeniárselas para llamar la atención de los asistentes, mayoritariamente figuras de
prestigio mundial, entre quienes resaltaba Albert Kölliker uno de los más grandes
anatomistas de la época, el patriarca de la anatomía alemana. Es justo en ese
momento cuando Cajal abriéndose paso entre las multitudes se acerca a Kölliker, lo
toma del brazo y literalmente lo arrastra hasta un rincón de la sala donde se encuentra
su microscopio…y hablándole en su pobre francés, Cajal le explica a Kölliker sus
investigaciones y descubrimientos mientras éste atendía a las mismas y observaba
con asombro el microscopio con las muestras que el joven científico español había
preparado. Kölliker alzó la mirada y le preguntó: ¿pero quién demonios es usted?

Era un hecho insólito, tratándose de un desconocido procedente de un país que


apenas contaba para la ciencia médica internacional. Y aquí es imperante señalar un
alto detalle y consideración que ennoblece a la profesión científica ya que lo que Cajal
mostraba era un mazazo a la posición favorable a la red nerviosa sostenida por el
propio Kölliker quien no dudó en felicitarlo e hizo lo imposible por franquear la barrera
idiomática e introducirlo en los círculos del congreso. Siendo Cajal un personaje
desconocido casi anónimo, quizá otro hubiera aprovechado su prestigio y autoridad
para orillarlo a un segundo plano, pero Kölliker hizo justo lo contrario, su amor por la
verdad se impuso a sus planteamientos personales.

En los siguientes meses Kölliker confirmó las observaciones de Cajal con el nuevo


método y no vaciló en abandonar públicamente su enfoque reticularista. Pero no sólo
eso, a sus 72 años, decidió estudiar español para traducir las obras de Cajal al
alemán. ¡chapeau por Kölliker! personas así son las que el mundo y la ciencia
necesita. Desde luego, Cajal jamás lo olvidó y en reiteradas ocasiones expresó su
gratitud hacia el alemán con quien lo uniría una estrecha amistad.
A partir de ahí y con apoyo de Kölliker, Cajal fue reconocido en todas las
universidades, tanto en Europa como en América. En 1900 recibió el premio "Moscú",
en 1905, fue condecorado con la medalla "Helmholtz" de oro macizo; en 1906 premio
Nobel que compartió con Camilo Golgi.
Albert Kölliker
Santiago Ramón y Cajal demostró y aportó a la ciencia y el mundo varias cosas, pero
fundamentalmente dos:

Que el sistema nervioso está conformado por células nerviosas individuales e


independientes que se comunican entre sí, demostrando definitivamente la validez de
la teoría neuronal del sistema nervioso. Las neuronas se conectan a través de sus
terminaciones, pero conservan su individualidad.

Que las neuronas actúan como elementos polarizados (principio de polarización


dinámica), de forma que el impulso nervioso es unidireccional: entra por las dendritas
al cuerpo celular y sale por el axón. La disposición de las fibras le confirmaba
invariablemente esta idea al comparar las neuronas de entrada -retinas y otros
órganos sensoriales- con las neuronas motoras de salida. Este descubrimiento
constituyó un avance gigantesco , porque permitió trazar circuitos neuronales
siguiendo el flujo de la señal nerviosa, como así hizo Cajal con flechas en sus dibujos.

Documental sobre la vida y trabajo de Santiago Ramón y Cajal


En opinión de muchos autores, la aportación de Santiago Ramón y Cajal supuso el
nacimiento de la neurociencia contemporánea, por una doble razón: era un paso de
gigante hacia la comprensión del funcionamiento del cerebro y del sistema nervioso en
su conjunto, pero, al mismo tiempo, sentaba las bases para todo el programa de
investigación futura. En palabras de Albright et al. (2000, p. 53) "En contraste con la
caótica visión del cerebro que surgía del trabajo de Golgi, Gerlach y Deiters, quienes
concebían al cerebro como una difusa red nerviosa en la que parecía posible todo tipo
imaginable de interacción, Ramón y Cajal centró su análisis experimental sobre la
función más importante del cerebro: el procesamiento de información. Ahora ya era
posible comenzar a poner orden en aquel laberinto inabordable e iniciar el estudio de
circuitos nerviosos específicos. No falta quienes comparan el impacto de Cajal en la
neurociencia con el de Darwin en la biología o el de la teoría cuántica en la física. Así
pues, su premio Nobel de 1906 fue cumplidamente merecido.

Santiago Ramón y Cajal


Incidente en la entrega del Premio Nobel
Un día de octubre de 1906, Santiago Ramón y Cajal recibió un telegrama con un
escueto mensaje en alemán. "Carolisnische Institut verliehen Sie Nobel-preiss". Se le
concede el Premio Nobel de Fisiología o Medicina junto a Camilo Golgi en
reconocimiento a sus trabajos sobre la estructura del sistema nervioso. Curiosamente,
Golgi era oponente científico , porque aún defendía la vieja teoría reticularista. Más
tarde Cajal confesaría: "Que cruel ironía del destino emparejar, como gemelos
siameses unidos por sus hombros, a adversarios científicos de caracteres tan
contrastados". Hay gran expectación durante la ceremonia, y en los discursos le
corresponde a Golgi el primer turno. De pronto, los asistentes, incluido el propio Cajal
quedan sorprendidos. Lo esperable era que Golgi disertara sobre su método de tinción
y las posibilidades que abrió a la neurociencia y que pasara revista de sus propios
hallazgos, pero en lugar de eso, se dedica a resucitar la difunta doctrina reticular del
sistema nervioso y arremete brutalmente, sin venir a cuento, contra la teoría neuronal.
Además de que no era el lugar para plantear una polémica, supuso una torpe
descortesía hacia su compañero de ceremonia, tratándose del principal defensor de la
teoría neuronal. Se habían logrado formidables progresos en las últimas décadas y
prácticamente ya nadie sostenía el viejo planteamiento reticularista al que el
propio Kölliker había renunciado, pero Golgi hablaba como si nada hubiera cambiado
desde 1873 cuando descubrió su método. Es muy probable que Cajal se hubiese
sentido incómodo, pero, elegantemente no lo exteriorizó. Cuanto tocó su turno, leyó el
discurso que tenía preparado y no hizo alusión a las agrias palabras de Golgi. 10 años
después, Cajal escribiría sobre este incidente: "Hizo gala (Golgi) de una altivez y
egolatría tan inmoderadas, que produjeron deplorable efecto en la concurrencia y yo
temblaba de impaciencia al ver que el más elemental respeto a las conveniencias me
impedía poner oportuna y rotunda corrección a tantos vitandos errores y a tantos
intencionados olvidos".
IMPORTANCIA DE LA SINAPSIS Y LA QUÍMICA CEREBRAL
Gracias a Cajal se sabía que el sistema nervioso no era una red continua, sino un
conjunto de neuronas individuales conectadas entre si. Los siguientes interrogantes
serían ¿en que consiste la unión entre dos neuronas mediante sus fibras nerviosas
(dendritas y axones)? y ¿ como el impulso nervioso pasa a través de ellas?

Charles Sherrington (1857-1952) uno de los neurofisiólogos más notables del siglo XX,
comprendió la importancia de la sinapsis, como así bautizó a esa conexión
(Del griego. σύναψις sýnapsis que significa 'unión, enlace'.) y su papel en la
transmisión nerviosa y en la integración del sistema nervioso en su conjunto. La
sinapsis actuaría como una especie de <válvula>", permitiendo el paso en un sólo
sentido y según sus cálculos, dentro de ella ocurriría una <pérdida de tiempo>, es
decir, se desmoronaba la señal nerviosa, por lo que hipotetizó certeramente sobre la
existencia de un gap o un pequeñísimo hueco, imposible de ver hasta la llegada del
microscopio electrónico. Sherrington recibió en 1932 junto a Edgar Adrian (1889-1977)
el premio Nobel de Fisiología o Medicina por sus <descubrimientos sobre las
funciones de las neuronas >.

Por su parte, la figura clave fue el fisiólogo inglés Edgar D. Adrian (1889-1977), quien
compartiría el Premio Nobel con Sherrington en 1932. Londinense de nacimiento y
formado en Cambridge, pronto dirigió su empeño a desvelar la naturaleza del
minúsculo y escurridizo impulso de las neuronas. El reto era impresionante, dados los
instrumentos disponibles en su época; así lo planteaba Adrian en sus propias
palabras:

"El primer problema de la conducción es si el impulso nervioso es una cantidad


variable, o si cada fibra única del sistema nervioso es siempre de la misma fuerza. La
investigación de esta cuestión es de singular dificultad a causa de que el impulso es
tan intangible. Si estimulamos un nervio motor y registramos la contracción del
músculo que inerva, concluimos que ha pasado un impulso nervioso desde el origen
de la excitación hasta el músculo; pero ¿cómo podemos tener un contacto más
estrecho con ese impulso nervioso, para aprender algo más que el mero hecho de que
ha pasado o no a través del nervio?"

"Queremos saber cómo varía el impulso en intensidad, si es más fuerte cuando el


estímulo es más fuerte […] Sólo cuando podamos medir el impulso nervioso
empezaremos a conocer los elementos de la conducción".
(Lucas K. The conduction of the nervous impulse. London: Green, 1917; p. 4.)

Esto sólo sería posible tras los avances electrónicos que se produjeron,
lamentablemente, por causa de la Segunda Guerra Mundial; concretamente, la
invención de la válvula de vacío un dispositivo capaz de amplificar miles de veces las
señales eléctricas. Se trataba del mismo tipo de válvulas de las radios de nuestros
bisabuelos, aquellos receptores que se calentaban y tardaban minutos en encenderse
antes de empezar a funcionar.

Adrian se puso en contacto con el estadounidense Herbert Gasser de la Washington


University en St. Louis y, gracias a sus indicaciones, pudo construir un amplificador de
tres etapas al que incorporó un rudimentario tubo de rayos catódicos para visualizar
las señales.

Con la ayuda de un becario, el joven sueco Zotterman, Edgar Adrian consiguió la


hazaña de «auscultar» por primera vez a una neurona individual y observar en detalle
la forma de su impulso nervioso. Trabajaban con nervios y músculos de rana, y
Zotterman recordaría por escrito aquellos momentos:

"Bajo un fuerte estrés emocional, nos apresuramos a registrar la respuesta a


diferentes grados de estimulación. Adrian corría arriba y abajo, controlando el aparato
de registro en la habitación oscura y revelando las placas fotográficas. Estábamos
excitados, los dos éramos conscientes de que eso que ahora veíamos nunca había
sido observado antes y que estábamos descubriendo un gran secreto de la vida: cómo
los nervios sensoriales transmiten su información al cerebro". (Finger S. Minds behind
the brain. A history of the pioneers and their discoveries. Oxford: Oxford University
Press, 2000; p. 250).

Se había conseguido el santo grial: registrar a una sola neurona y desvelar su código
secreto. El análisis de la señal destapó varios fenómenos; cada uno de ellos, un
descubrimiento en sí mismo:
 Se confirmó definitivamente la naturaleza tipo «todo o nada» del impulso
nervioso. Todos los impulsos registrados tenían la misma fuerza, no había impulsos
fuertes y débiles.
 La neurona codificaba la intensidad de la sensación a través de la frecuencia
de disparo. Los investigadores estiraron el músculo de la rana suspendido con
distintos pesos. Comprobaron que con un peso de 1/4 g la neurona descargaba 21
veces por segundo; con 1/2 g lo hacía 27 veces, y con 1 g, 33. O sea, los nervios
usaban una especie de código Morse con un único tipo de señal.
 La neurona se adaptaba muy pronto ante una estimulación constante,
reduciendo su tasa de disparos. Este rápido descenso después de cada estallido
inicial de descargas sugería que los nervios estaban programados para responder a
los cambios, más que a las condiciones estables.
Por lo tanto, las neuronas usaban un código universal basado en la frecuencia de los
impulsos nerviosos o potenciales de acción. No había códigos eléctricos distintos para
transmitir una sensación de luz, frío, o sonido. El código era el mismo y la diferencia
estribaba en el lugar anatómico del cerebro a donde llegaba el mensaje. Una señal en
la corteza visual sería interpretada como luz, mientras que la misma señal en la
corteza auditiva se interpretaría como sonido. Una sensación débil no se codificaba
por un impulso nervioso débil, sino por los mismos impulsos fijos, pero más
espaciados. En palabras de Adrián: «Todos los impulsos se parecen, sea que el
mensaje esté destinado a suscitar una sensación de luz, de contacto o de dolor; si los
impulsos se agolpan, la sensación es intensa, si están dispersos y separados por un
intervalo, la sensación es débil».

Descargas de una neurona individual registradas por Adrian y Zotterman (1926).


Desde el punto de vista metodológico, Adrian tuvo una sencilla y genial idea, que
luego copiarían todos los laboratorios del mundo: como dispositivo de salida, además
del tubo de rayos catódicos, decidió conectar un altavoz al amplificador, para escuchar
las señales nerviosas. Con este sistema se puede oír crepitar a los nervios, además
de visualizar la señal, y en muchas ocasiones resulta más fácil identificar con el oído el
momento en que se consigue registrar a una neurona individual. Hoy es práctica
habitual (para más detalles, v. González J. Breve historia del cerebro, cap. 5.
Barcelona: Crítica, 2010; p. 145-59).

Los avances en las investigaciones demostrarían que los cambios operados en las
sinapsis son de naturaleza química y resultan decisivos para que el cerebro y todo el
sistema nervioso, registren información en su interior y modifiquen su funcionamiento
como consecuencia de experiencias previas. Las primeras décadas del siglo XX
sirvieron para desvelar la existencia de los neurotransmisores, tras los primeros
hallazgos sobre la acetilcolina por parte del británico Henry Dale y el alemán Otto
Loewi, galardonados en 1936 con el premio Nobel por sus descubrimientos
relacionados con la transmisión química del impulso nervioso. En realidad, este nuevo
enfoque supuso un "verdadero cambio" en la forma de entender el cerebro y el
sistema nervioso. En palabras del historiador Elliot Valenstein:

"Como el desciframiento  del código genético y la creación de la bomba


atómica, el descubrimiento de como funcionan las neuronas del cerebro es uno
de los desarrollos fundamentales del siglo XX. El descubrimiento de los
neurotransmisores revolucionó la forma de cómo pensamos acerca del cerebro
y de lo que significa ser humano"

Charles Scott Sherrington

Edgar Douglas Adrian


Activación del cerebro durante la lectura de palabras como <ajo>, <canela> o
<jazmín>. Neuroimágenes obtenidas mediante la técnica de resonancia magnética
funcional, en las que se muestran coloreadas las áreas más activas. Las zonas
señaladas con flechas blancas corresponden a estructuras que participan en el
procesamiento de los olores reales. 
Investigación llevada a cabo en la Universitat Jaume I de Castellón con la colaboración
del Medical Research Council de Cambridge y publicada en la revista Neuroimagene.
En la vertiente aplicada, comenzaron a concebirse algunas enfermedades
neurológicas en términos de excesos o deficiencias de estas sustancias. Así ocurrió
enseguida con la miastenia grave y más tarde con la enfermedad de Parkinson.

A lo largo del siglo XX y durante los primeros años del XXI, se fueron sucediendo
logros espectaculares sobre el sistema nervioso y su funcionamiento. La década de
1990 fue declarada la del <cerebro>. El catálogo de descubrimientos es amplio y
muchos de ellos se analizarán con posterioridad. Gran parte de este avance ha sido
de tipo metodológico y el progreso tecnológico ha marcado en gran medida la pauta de
este conocimiento, principalmente en dos terrenos:
 
 a) en animales, la posibilidad de registros de neuronas individuales ha revelado
como la corteza procesa la información sensorial en sus primeras etapas, por
ejemplo, el colosal trabajo de  David Hubel y Torsten Nils Wiesel en la década de
1960, sobre la corteza visual o los de Eric Kandel sobre la memoria, todos ellos
merecedores del premio Nobel; y
 b) en la investigación humana, las técnicas recientes de neuroimagen y de
registro neurofisiológico ofrecen la oportunidad de observar al cerebro en acción.
Desde los inicios del siglo XX, los interrogantes se tornaron cada vez más ambiciosos
y el progreso de la microscopía, las técnicas de tinción y las técnicas farmacológicas
abrieron nuevas posibilidades en el estudio de las neuronas y de la química cerebral.

Gran parte de los progresos teóricos y aplicados de la neurociencia se han conseguido


gracias a la experimentación animal.
 
ACTIVIDAD DE APRENDIZAJE:  A continuación analizaremos dos temas de reflexión
de los que deberás compartir tu opinión en el siguiente recuadro de comentarios a más
tardar el día 12 de julio.

Para este ejercicio, las opiniones que se compartirán en el foro de discusión no


tendrán límite de caracteres, sin embargo entre más analítica y elaborada sea tu
opinión, mejor reforzarás este tema y permitirá a su vez interactuar con otros
compañeros.

¿Podría pensar una máquina?

A continuación se planteará una cuestión que en las próximas décadas cobrará plena
actualidad y que en el momento presente lleva a reflexionar sobre aspectos
fundamentales acerca de lo que es una mente y la relación con su soporte material.
Curiosamente, fue un asunto que, en otros términos, ya Descartes abordó 400 años
atrás. El planteamiento se basa en las siguientes referencias bibliográficas:

 Churchland PM, Churchland PS. Un debate sobre inteligencia artificial: ¿podría


pensar una máquina? Investigación y Ciencia 1990;162:28-24.
 González J. Breve historia del cerebro. Barcelona: Crítica, 2010; p. 292-5.
 Searle J. ¿Es la mente un programa informático? Investigación y Ciencia
1990;162:10-6.

En la década de 1940 se construyó el Electronic Numerical Integrator and


Computer (ENIAC) (Fig. web 1-4), el primer ordenador electrónico de propósito
general. Pesaba varias toneladas y ocupaba una sala de casi 200 m2. Se componía
de más de 17.000 válvulas de vacío y cada pocos minutos se fundía una de ellas, por
lo que un grupo de operadores tenía que estar pendiente de reponerlas. 

Aunque el objetivo inicial era bélico, pronto se demostró que las nuevas máquinas
eran algo más que simples «masticadores» de números. También se revelaron
competentes en el manejo de información simbólica y hallaron nuevas y más
elegantes soluciones a teoremas clásicos de la lógica matemática. Por un momento
parecía que no había límites a sus posibilidades. En la década de 1960 se creía que
hoy, en el siglo XXI, estaríamos rodeados de robots y máquinas inteligentes con las
que nos comunicaríamos «de tú a tú», como hacemos entre los seres humanos. Para
la psicología, los ordenadores constituyeron una nueva metáfora que ayudó a
alumbrar al naciente paradigma de la psicología cognitiva. Términos de la cibernética
como procesamiento de la información, acceso directo, memoria a corto y largo plazo,
memoria de trabajo, etc. se trasladaron y aplicaron con naturalidad a la psicología
cognitiva para describir aspectos del funcionamiento mental.

Lo cierto es que el desarrollo informático ha sido vertiginoso en términos cuantitativos.


Cualquier ordenador personal contiene miles de veces el sistema informático de
la National Aeronautics and Space Administration (NASA) que llevó al hombre a la
luna. El saldo de los últimos 50 años ha sido una mezcla agridulce de éxitos y
fracasos. Por una parte, las computadoras son capaces de vencer o hacer tablas con
el campeón mundial de ajedrez o resolver sistemas de ecuaciones de miles de
incógnitas y, por otra, no alcanzan al talento de un simple insecto para desenvolverse
en un entorno cambiante. Esta dicotomía es el reflejo de dos formas distintas de
trabajar: procesamiento serial en los computadores y paralelo en los cerebros. Hoy los
científicos se conformarían con lograr construir vehículos de decisión autónoma que
deambularan por la superficie marciana sin quedar encallados ante el primer
obstáculo.
Pero dentro de algunos años podrán tener sentido algunas preguntas que ahora
suenan a ciencia ficción, por ejemplo: ¿podría llegar a pensar una máquina? Ante esta
cuestión, el filósofo de la mente John Searle hace una declaración previa:

«¿Puede una máquina tener pensamientos conscientes en el mismo sentido en que


los tenemos usted y yo? Si entendemos por “máquina” un sistema material capaz de
desempeñar funciones (¿y qué otra cosa podría, si no, significar?), resulta que los
seres humanos somos máquinas de una clase biológica especial y, como los seres
humanos piensan, es evidentemente cierto que hay máquinas capaces de pensar.»

Aquí hay un debate entre diferentes posiciones de la que podría denominarse escuela


filosófica californiana: por un lado, el filósofo John Searle, de la Universidad de
California en Berkely, y, por otro, los esposos Paul y Patricia Churchland, de la
Universidad de California en San Diego.

Todo va a depender de una cuestión más profunda, para la que no hay respuesta aún:
¿en qué consiste pensar? Si el pensamiento, y toda la vida mental asociada, es el
producto de las conexiones entre millones de unidades elementales de
procesamiento –neuronas–, y es precisamente la consecuencia de esas
interconexiones, entonces podrían obtenerse tener resultados semejantes en cualquier
sistema que incorporara la misma estructura de enlaces. Es posible crear chips que
funcionen como neuronas individuales, y en un futuro podrían conectarse millones de
ellos entre sí, configurando sistemas de estructuras.

Si el pensamiento surge como una propiedad emergente de millones de contactos que


se intercambian información entre sí, y no como una propiedad de la materia que
constituye a esos contactos, entonces habría que contestar afirmativamente a la
pregunta que se está analizando. Porque en ese caso, el hecho de que esa
complejísima estructura de interconexiones esté implementada en un tipo de materia u
en otro se tornaría anecdótico. Sería irrelevante que las unidades interconectadas
fueran de carne –materia orgánica– o de silicio, si realizaran las mismas funciones. Del
mismo modo que las operaciones simbólicas y numéricas son las mismas sobre unos
materiales u otros; 2 + 2 son 4 tanto en una calculadora de circuitos de acero como en
otra de circuitos de cobre, de estaño, o de nervios de calamar, porque la esencia del
cómputo no está en el material de los circuitos sino en cómo éstos se conectan entre
sí (igual que un jaque mate sería el mismo con fichas de ajedrez de madera o de
plástico). Insistiendo: si el pensamiento y las propiedades psicológicas del cerebro
respondieran a esa lógica computacional, la materia de los circuitos no sería
determinante y cabría imaginar máquinas artificiales con propiedades mentales. Ésta
es la postura que defienden los esposos Churchland y quienes se encuadran en la
denominada posición fuerte de la IA (inteligencia artificial).

Por el contrario, la posición de John Searle y sus seguidores tiene otro enfoque, en la
denominada posición débil de la IA. Para Searle, el pensamiento es un producto
biológico de un órgano particular, el cerebro, del mismo modo que la digestión lo es
del estómago. El cerebro produce, «segrega» vida mental, al igual que el hígado
segrega bilis o el páncreas insulina. Una máquina, un ordenador, podrían «simular» la
inteligencia e incluso el pensamiento, pero esto no sería pensamiento real, del mismo
modo que un ordenador puede simular la digestión, o la combustión de los
hidrocarburos, pero esta simulación no es una combustión real que mueva a un coche.
En fin, éstas son dos posturas claramente divergentes, en un planteamiento aún
abierto.

EMPLEO DE ANIMALES EN LA INVESTIGACIÓN NEUROCIENTÍFICA.

Este tema de reflexión se enmarca, en realidad, en otro más amplio sobre el uso de
los animales en la experimentación biomédica, más allá del campo estrictamente
neurocientífico.

A través de los siglos, el ser humano se ha servido de los animales en beneficio


propio, considerándolos un recurso natural aprovechable como alimento, transporte,
fuerza de trabajo, entretenimiento o compañía. El uso de los animales en la ciencia
supone menos del 1 % de esa utilización general. En el momento actual hay al
respecto cierta controversia planteada por razones éticas.

A continuación, después de leer los principales argumentos a favor y en contra, se


sugiere que el lector reflexione sobre este asunto y exponga su propia opinión
personal de forma razonada. Convendría también que supiera distinguir entre los
distintos grados de oposición a la experimentación animal.

Los experimentos neurocientíficos se llevan a cabo con muchas clases de animales,


desde invertebrados, como moscas, caracoles, gusanos, etc., hasta mamíferos y
primates como el chimpancé. Por ejemplo, los descubrimientos sobre las bases
celulares de la memoria que llevaron a Eric Kandel al Premio Nobel salieron de
experimentos sobre el molusco marino Aplysia, porque los mecanismos básicos
estudiados eran comunes a todo el reino animal –las neuronas de una babosa no son
esencialmente distintas de las del Homo sapiens. El animal rey del laboratorio es la
rata, útil en un sinnúmero de trabajos. Otras investigaciones requieren, por su
naturaleza, actuar sobre organismos más próximos al ser humano, como los primates.

Afortunadamente, en la actualidad, la mayoría de las personas se preocupan por el


bienestar de los animales y condenan su sufrimiento innecesario. Los neurocientíficos
comparten esta preocupación y siguen unos procedimientos reglamentados para tratar
correctamente a los animales en los estudios de laboratorio. Lo cierto es que la
mayoría de los conocimientos sobre el sistema nervioso procede de experimentos con
animales. En medicina, 144 de los 189 Premios Nobel otorgados han sido por
investigaciones con animales que han servido para salvar y mejorar la vida de miles de
personas.

Los neurocientíficos siguen unas reglas que, de acuerdo con la revisión de Bear et al.
(2007), son las siguientes:

 
1. Los animales son utilizados únicamente en experimentos importantes que
pueden hacer progresar el conocimiento del cerebro y del sistema nervioso.
2. Se toman todas las medidas establecidas para disminuir al mínimo posible el
dolor y la incomodidad (uso de anestésicos, analgésicos, etc.).
3. Se consideran todas las posibles alternativas a la experimentación animal.

Estos pasos son garantizados a través de comités éticos que deben aprobar la
investigación, y la autorización debe figurar en todos los trabajos publicados.
La mayoría de las personas aceptan la necesidad de experimentación animal para que
la ciencia avance, siempre que se respeten las reglas éticas establecidas al respecto.
No obstante, en algunos países en las últimas décadas han surgido con fuerza
organizaciones que se oponen frontalmente a todo tipo de experimentos con animales,
a veces con actividades más o menos violentas como pintadas en las puertas de los
laboratorios y otras acciones. ¿Habría que prescindir de cualquier estudio en que
intervengan animales? ¿Estaríamos dispuestos a privarnos de los avances necesarios
para el tratamiento de, por ejemplo, enfermedades neurodegenerativas como la de
Parkinson o la de Alzheimer y demencias que afectan a millones de seres humanos (y
cuya investigación neurobiológica es principalmente animal)? Desde distintos ámbitos
científicos y no científicos se han llevado a cabo campañas de información en este
terreno. Una de ellas es la Foundation for Biomedical Research.

Sería aconsejable que el estudiante, después de manejar toda la información


necesaria, supiera plantear el tema en toda su complejidad. Además de la
documentación disponible en la red, se recomiendan los siguientes libros, como
exponentes de las dos posturas.

A favor de la experimentación animal, siguiendo las pautas éticas establecidas:

 Sueiro E. Comunicación y ciencia médica: investigar con animales para curar a


personas. Madrid: CSIC, 2010.
En contra de la experimentación animal:
 Regan T. Jaulas vacías. El desafío de los derechos de los animales. Barcelona:
Altarriba, 2006.

Después de leer con atención los detalles de ambas posiciones y sus respectivas
razones  ¿cuál es tu opinión al respecto? Justifica tu argumento e
intenta sostenerlo con argumentos razonados en el siguiente cuadro de diálogo a más
tardar el día 24 de junio.

PRINCIPIOS DE LA NEUROCIENCIA COGNITIVA, LA NEUROPSICOLOGÍA Y LA


BIOPSICOLOGÍA
Enfoques convergentes.

La neurociencia cognitiva constituye un campo científico relativamente reciente que


surge de la convergencia de dos disciplinas que hasta hace unas escasas décadas,
habían transitado por caminos distanciados: la neurociencia y la psicología cognitiva.
Cuenta cada una con su propia tradición investigadora, sus métodos y técnicas de
trabajo específicas y las dos han acumulado notables progresos teóricos y empíricos
que, llegados a este punto de madurez epistemológica, pueden compartir de forma
enriquecedora y sinérgica.

Los avances revolucionarios de los últimos años y la aparición de nuevas técnicas de


neuroimagen y de registro electrofisiológico han permitido tender los puentes
necesarios para que surja un nuevo terreno multidisciplinar que se beneficia de ambos
enfoques complementarios. Si la meta es comprender el funcionamiento de la mente y
el dispositivo material que la produce, hay que decir que ambas disciplinas comparten
ese objetivo básico y aportan contribuciones valiosas en un terreno de trabajo común,
más allá de la simple suma de observaciones.

Niveles de análisis de la neurociencia cognitiva


La neurociencia cognitiva aborda el estudio del funcionamiento cerebral desde una
perspectiva multidisciplinar, incidiendo en distintos planos de análisis o explicación
que, en un orden de complejidad, ascendente, comprenden los niveles molecular,
celular, sistémico, conductual y cognitivo.

Análisis molecular

El conocimiento íntimo de los procesos que se encuentran en la base de las funciones


mentales conduce al estudio del papel fundamental que desempeñan las distintas
moléculas y sus interacciones en la actividad neural y endocrina. Entre otros objetivos,
este estudio intenta describir las bases moleculares del impulso nervioso, así como la
fisiología y la bioquímica de los neurotransmisores o sustancias químicas que actúan
de mediadores en la comunicación entre las neuronas y hacen posible el registro de
nueva información mediante la comprensión de los mecanismos moleculares ligados a
sustancias adictivas.

Análisis celular

El nivel siguiente de análisis tiene a la célula y concretamente a la neurona como


principal unidad de estudio. Pretende responder a interrogantes sobre el
funcionamiento  de las células nerviosas, sus diversos tipos y formas, sus
especializaciones, como interaccionan las neuronas entre ellas, como crecen y se
conectan durante el desarrollo fetal, que cambios experimentan a lo largo de la vida,
etc.

Análisis de sistemas o redes neuronales

Es el estudio de los sistemas o conjuntos de neuronas que constituyen redes de


actividad que están en la base de los distintos subprocesos cognitivos y emocionales.
Es un nivel de análisis sumamente interesante, imprescindible para entender los
niveles siguientes y cuyo desarrollo no ha hecho más que empezar. Implica la
cartografía y la comprensión de los circuitos neuronales que intervienen en las
distintas etapas de procesamiento de los sistemas visual, auditivo, motor, etc., y que
en los últimos años ha experimentado grandes avances gracias a las técnicas de
identificación de tractos individuales de materia blanca, como las imágenes por tensor
de difusión (Diffusion tensor imaging, DTI) y otras técnicas relacionadas.

Análisis conductual

Este nivel de análisis examina cómo trabajan de forma conjunta y orquestada los
distintos sistemas neuronales que dan lugar a las conductas complejas del organismo:
cómo funcionan de modo integrado las redes de memoria o los sistemas que
participan en las conductas motivadas, como el hambre, la sed o el sexo; qué partes
cerebrales intervienen en los estados de alerta o en el origen de los sueños, etc.

Análisis cognitivo

Por último, el nivel de análisis más ambicioso corresponde a la comprensión de los


mecanismos neurales que hacen posible las funciones mentales superiores, como el
lenguaje, el razonamiento, la imaginación, la planificación y el control ejecutivo de las
acciones, la consciencia de uno mismo de la mente del otro, etc. En definitiva,
persigue desvelar la base material de la actividad mental de orden superior que
alcanza su máxima expresión en el animal humano.
La neurociencia cognitiva constituye un campo científico relativamente reciente que
surge a partir de la convergencia de la neurociencia y la psicología cognitiva y que
aborda el estudio del funcionamiento cerebral desde una perspectiva multidisciplinar,
incidiendo en distintos planos de análisis.
NEUROCIENCIA Y PSICOLOGÍA COGNITIVA;  Una relación no siempre fácil.
La psicología cognitiva surgió en la década de 1950 como reacción al conductismo
dominante de la primera mitad del siglo XX. Pronto demostró que los procesos
mentales, desdeñados por los conductistas por no ser directamente observables,
podían inferirse y ser estudiados de forma científica a través de medidas indirectas en
experimentos cuidadosamente diseñados para tal fin. Ciertas variables dependientes
como los tiempos de reacción o el rendimiento en las tareas planteadas, constituyen
valiosas fuentes de evidencia que arrojan luz sobre las funciones psíquicas que
intervienen.

Desde entonces se ha ido acumulando un volumen impresionante de datos que


verifican o refutan distintas hipótesis y que son explicados desde modelos teóricos que
pretenden  describir el funcionamiento de la mente humana en sus diversos
componentes.

Paralelamente, desde la neuropsicología, el estudio de las <lesiones cerebrales> y de


sus consecuencias sobre la conducta cognitivo-emocional y lingüística del pacient, ha
ayudado a entender mejor el funcionamiento  general de la mente y el cerebro. Estas
posibilidades se han multiplicado en las últimas décadas al beneficiarse la
neurociencia de las revolucionarias técnicas de neuroimagen y de registro
electrofisiológico, que permiten observar el cerebro intacto <en acción> mientras
realiza una determinada función mental.

¿Qué aporta el estudio del cerebro al conocimiento de la mente?

Se ha mencionado que, durante un tiempo, la psicología cognitiva y la ciencia o


ciencias del cerebro han evolucionado por caminos relativamente independientes y
con frecuencia recíprocamente ignorados. A veces la psicología cognitiva ha mirado
con escepticismo la utilidad que podía ofrecer el estudio del cerebro en la comprensión
de los procesos mentales.

¿De qué manera me sirve conocer que un determinado subproceso tiene lugar en tal o
cual estructura anatómica? Eso lo dejo para los neurofisiólogos. A mi me interesa el
<cómo> no el <donde>. Este podría ser  una expresión o lugar común de algunos
psicólogos al abordar estas cuestiones..

Una distinción que suele aducirse para contrastar la psicología cognitiva y la


neurociencia es análoga a la ue existiría en entre el software y el hardware en un
sistema computacional. Un programa informático tiene su propia lógica de
funcionamiento, un algoritmo o conjunto de instrucciones simbólicas que son
independientes del hardware o sistema material sobre el que está implementado. El
mismo programa puede ejecutarse en un número de ordenadores distintos,
construidos con materiales también diversos y  la naturaleza del hardware no informa
nada acerca de las instrucciones del programa, así como un jaque mate es el mismo
con piezas de ajedrez de plástico o madera, y la naturaleza material de éstas últimas
no informa sobre las reglas y el funcionamiento del ajedrez. Esta visión simplista,
heredera de los primeros enfoques del procesamiento de la información, ha conducido
a algunos psicólogos a creer que el estudio de la arquitectura neural del cerebro
carece de valor informativo sobre la función psicológica. Por ejemplo, Harley (2004) y
Coltheart (2004) ponen en cuestión el valor de los registros suministrados por las
técnicas de neuroimagen y se preguntan si alguna vez este tipo de datos ha servido
para progresar teóricamente y decidir entre dos modelos cognitivos en pugna.

Sin embargo, los últimos avances ponen de relieve que el enfoque multidisciplinar de
la neurociencia cognitiva es enriquecedor y abre nuevas posibilidades, como así lo
reconoce la mayor parte de la comunidad científica. De hecho los análisis
bibliométricos señalan un incremento espectacular en el número de publicaciones  de
corte neurocognitivo. Siguiendo a Richard Henson y a muchos otros autores puede
considerarse que ambas aproximaciones son complementarias, antes que
excluyentes. Los datos procedentes de las técnicas de neuroimagen son en realidad
nuevas variables dependientes que añaden valor a las ya disponibles. En el estudio de
una determinada función u operación mental es posible contar con un conjunto de
variables dependientes que son medidas <de salida> de los experimentos:  tiempos de
reacción, proporción de aciertos en la tarea, medidas fisiológicas convencionales como
la respuesta electromiográfica de los músculos o la conductividad eléctrica de la piel,
etc. Ahora los cambios hemodinámicos del cerebro detectados mediante la tomografía
por emisión de positrones (PET) o las imágenes por resonancia magnética funcional
(RMf), así como los registros ofrecidos por las técnicas de potenciales evocados o de
magnetoencefalografía (MEG) representan nuevas medidas valiosas que se suman a
las anteriores y ayudan a entender mejor las funciones estudiadas.

Por otra parte, la experiencia ha demostrado que el enfoque cognitivo convencional del
procesamiento de la información resulta insuficiente para caracterizar toda la
complejidad del funcionamiento mental. En la actividad cerebral no cabe una
separación tan nítida como en un ordenador entre el software y el hardware y su
naturaleza computacional es fundamentalmente paralela, íntimamente enraizada en
las redes neuronales.

Cuando los psicólogos reacios a la utilidad de las neuroimágenes las asimilan al


hardware cerebral, que no dice nada acerca del software funcional, olvidan en
palabras de Henson (2005) que <las imágenes funcionales proporcionan más
información que las del simple hardware>, proporcionan información  "de
funcionamiento" sobre la distribución espacial de los procesos que ocurren mientras el
software está rodando.

Tampoco es cierto que la naturaleza material de los procesos no sea informativa sobre
el funcionamiento de éstos. Así una teoría podría postular que el reconocimiento de las
caras se basa en un mecanismo de comparación serial entre el estímulo visual de
entrada (o una abstracción de éste) y las representaciones faciales almacenadas en la
memoria. La consideración del tiempo mínimo de procesamiento de las neuronas -del
orden de decenas de milisegundos- excluye esta posibilidad y sugiere que tal
algoritmo secuencial sería incompatible con el número de rostros que generalmente
cada persona conoce -decenas de miles- y el tiempo típico que requiere la
identificación de un rostro -centenas de milisegundos- (ejemplo de Henson 2005).

Existen innumerables ejemplificaciones en los que el donde, si dice cosas sobre


el cómo de la función mental. Otra ejemplificación de ello es la respuesta cerebral que
se obtiene en tiempo real cuando individuos en estudio responden ante ciertos
estímulos que encienden áreas específicas del cerebro, alterando sus emociones y
eventualmente su conducta.

¿Que aporta la Psicología cognitiva a la neurociencia?

De forma recíproca la psicología cognitiva enriquece y guía  ala neurociencia en el


planteamiento de las cuestiones pertinentes que deben ser abordadas y respondidas,
a la vez que contribuye a la interpretación teórica de los datos que se obtienen. La
neurociencia cognitiva no es el mero estudio anatómico y fisiológico del cerebro, sino
que busca encontrar la base material de los procesos cognitivos y emocionales que
operan en el funcionamiento de nuestras vidas. En ese sentido la psicología cuenta
con un arsenal de herramientas y un valioso conjunto de observaciones y modelos
teóricos que intentan explicar la actividad mental y la conducta humana. Si la
frenología fracasó como intento de avance en la comprensión del cerebro y sus
funciones, fue evidentemente porque su método era acientífico, pero una razón
adicional es que sus conceptos psicológicos eran totalmente ingenuos, alejados de
cualquier ciencia psicológica. En su libro "The new phrenology, el profesor  William
Uttal destaca la importancia de contar con una buena teoría psicológica para
aproximarse al estudio de las funciones cerebrales. También alerta, sea dicho de
paso, con respecto al peligro de una <nueva frenología>, si se cae e un excesivo
localizacionismo que olvide la unidad dinámica del cerebro y la mente.

En definitiva, es indispensable contar con la contribución de la psicología científica


para ser capaces de formular preguntas correctas e interesantes y al mismo tiempo,
responderlas enmarcando conceptualmente los datos que ofrece la neurociencia.
Las imágenes funcionales, los registros electrofisiológicos y las observaciones
neurocientíficas en su conjunto, necesitan ser explicadas y relacionadas dentro de una
teoría coherente que a su vez, sea fuente de nuevas hipótesis  verificables. De lo
contrario, sólo se dispondría de un conjunto disperso de datos a la espera de su
unificación e integración teórica. En este proceso hay que aprovechar todos los
conocimientos brindados por la psicología cognitiva. Se trata desde luego de un
enfoque sinérgico que va más allá de la simple suma de dos disciplinas que
convergen. Como ejemplo de una cuestión de gran calado en la psicología cognitiva
de la década de 1980 y años siguientes analicemos el siguiente criterio:

¿Es la mente modular?

La mente y el cerebro gozan de una extraordinaria unidad dinámica y funcional, pero


no son un todo uniforme e indiferenciado. Al igual que el cuerpo está compuesto por
órganos distintos que desempeñan funciones específicas, muchos autores entienden
que en la mente habría componentes diferenciados que llevan a cabo subprocesos o
tareas especializadas dentro del conjunto general. Hoy se sabe que la antigua
frenología estaba equivocada por su metodología acientífica basada en la inspección
de los bultos craneales y por su pintoresca clasificación de las funciones mentales. Sin
embargo, la idea general de fondo, esto es, que el cerebro pueda contar con zonas
especializadas, no es descabellada. De hecho, la existencia de las cortezas
sensoriales y motoras es un ejemplo de ello, sin olvidar que su actividad se incorpora
coordinadamente dentro de un sistema orquestado de procesos dinámicos.

Sobre este tipo de cuestiones hay un planteamiento más radical: si el cerebro o la


mente tuvieran distintos componentes, ¿alguno de estos componentes sería
un módulo?, ¿los procesos mentales serían modulares? El gran teórico de la
modularidad ha sido Jerry Fodor, y la obra de referencia es su libro de 1983 The
modularity of mind, publicado en castellano tres años después (Fodor, 1986). Se trata
de una de las obras más citadas de la psicología contemporánea y que más debates
ha suscitado en las últimas décadas.

Para Fodor hay dos clases de procesos mentales: los procesos centrales y los
procesos modulares o módulos. Un módulo sería un tipo de proceso con
características particulares:
 Los módulos son específicos de dominio, o sea, están especializados en un
tipo particular de estímulos y sólo trabajarían ante una clase específica de
información. Por ejemplo, un módulo especializado en un determinado subproceso
perceptivo visual sólo actuaría ante estímulos visuales de ciertas características,
permaneciendo impasible ante otras clases de estimulación.

 Los módulos funcionan de modo obligatorio ante la presencia del estímulo


apropiado. Por ejemplo, ante la palabra «dedo», un lector del castellano no podría
verla simplemente como un conjunto de trazos, sin acceder a su significado.
Precisamente, el denominado fenómeno Stroop es un efecto muy poderoso,
imposible de evitar incluso tras meses de práctica. En su formulación clásica,
consiste en la dificultad de nombrar el color físico de palabras que corresponden al
nombre de un color distinto; por ejemplo, si ante la palabra «rojo» escrita con tinta
azul, el individuo debe decir «azul» rápidamente, los tiempos de reacción son mucho
más lentos que ante otros estímulos.

 Los módulos están encapsulados, blindados a cualquier otro proceso. Cuando


un módulo se activa, su tarea no se ve afectada por la acción de cualquier otro
proceso; su actividad es impermeable a cualquier influencia exterior. Según Fodor,
ésta es una de las características más relevantes de su concepción modular.

 Los módulos son rápidos; realizan su actividad en un plazo de milisegundos.


Por ejemplo, acceder al significado de una palabra lleva menos de 200 ms.

 Los módulos son automáticos y su actividad es poco accesible a la conciencia.


Su tarea es automática y autónoma, no podemos intervenir en ella de forma
controlada, y el propio proceso es opaco a nuestra conciencia. Sólo somos
conscientes de los productos finales, no de las representaciones intermedias que se
generan dentro del módulo. Por ejemplo, no somos conscientes de cómo
organizamos la estructura sintáctica de una oración para poder entenderla, sólo
somos conscientes del producto final, cuando ya hemos construido su significado.

Fodor planteó también otras características, como el hecho de que los módulos son
innatos y su desarrollo ontogenético sigue una secuencia madurativa fija, de unos
individuos a otros, durante las primeras fases de la evolución infantil. Para él, los
módulos también debían ser compactos y estar localizados en estructuras neuronales
fijas. Hoy los modularistas no ponen tanto énfasis en este rasgo, porque hay evidencia
de que ciertos procesos automáticos, dotados de algunas de las características
mencionadas, podrían interesar sistemas neurales distribuidos.

Fodor situaba la modularidad fundamentalmente en los procesos perceptivos; un


ejemplo típico sería el que da lugar a la visión binocular en tres dimensiones a partir de
las dos imágenes retinianas. Hay quienes consideran módulos a procesos de alto nivel
como el propio lenguaje o subcomponentes de éste.

Muchas de estas ideas han sido criticadas desde otros enfoques. Otros autores
aceptan algunos de los planteamientos modulares en una versión más débil. Por
ejemplo, se considera que la lectura puede ser modular en muchos aspectos, pero no
sería en sí un módulo innato, porque es muy reciente en su evolución.

Los estudiantes que deseen profundizar en este tema, se recomienda consultar el libro
de Fodor y, como principal exponente de la posición crítica, el libro de Annette
Karmiloff-Smith:
 Fodor J. La modularidad de la mente. Madrid: Morata, 1986 (orig. 1983).
 Karmiloff-Smith A. Más allá de la modularidad: la ciencia cognitiva desde la
perspectiva del desarrollo. Madrid: Alianza, 1994 (orig. 1992).

Lo anterior puede complementarse con otras lecturas posteriores que ofrecen una
visión integradora:

 Barrett HC, Kurzban R. Modularity in cognition: framing the debate. Psychol


2006;113:628-47.
 García-Albea JE. Fodor y la modularidad de la mente (veinte años después).
Anuario de Psicología. 2003;34:505-71.

Material de apoyo:
ACTIVIDAD DE APRENDIZAJE: Con relación a la información antes mostrada y al
material de apoyo, realiza un mapa conceptual en el que se explique en que consiste
la mente modular.

También podría gustarte