Antecedentes de Neuropsicología Infantíl
Antecedentes de Neuropsicología Infantíl
Antecedentes de Neuropsicología Infantíl
ANTECEDENTES HISTÓRICOS
OBJETIVOS DE APRENDIZAJE
Conocer las referencias generales del estudio del cerebro en diversas épocas
de la historia.
Identificar a los personajes que en su época realizaron aportaciones
sustanciales para la constitución de lo que hoy se conoce como neurociencia.
Analizar las bases que dieron comienzo al estudio del cerebro con apoyo de la
tecnología.
Analizar el uso de la tecnología en el estudio actual del cerebro en distintas
especies y la humana.
Conocer los conceptos generales que permitan iniciar y adentrarse en el
estudio de la neurociencia.
En esta primer apartado, se analizarán los principales hitos que, a lo largo de la
historia, han señalado el camino en la búsqueda constante de respuestas en torno a la
mente y el cerebro. Se revisará la concepción que se tenía sobre el cerebro y de sus
funciones durante la Edad antigua y la Edad media, así como los avances anatómicos
y fisiológicos que ocurrieron en el Renacimiento y en siglos posteriores. Se abordarán
el descubrimiento de la electricidad animal durante la Edad moderna y los debates del
siglo XIX sobre la corteza cerebral y sus funciones. Ya en el siglo XX, se tratará con
más detenimiento la figura y el papel desempeñado por Santiago Ramón y Cajal y su
gigantesca e invaluable contribución a la comprensión del sistema nervioso y de su
unidad fundamental, la neurona, que dio paso a la identificación de los primeros
circuitos neuronales.
LA NEUROFISIOLOGÍA, LA PSICOLOGÍA Y LA NEUROCIENCIA
Por lo anterior, las neurociencias tienen una evidente vinculación con otras disciplinas
como la psicología, la medicina general, los procesos terapéuticos, la educación, las
ciencias sociales y por consecuencia los sistemas de aplicación de justicia.
Sin embargo, no todos los autores clásicos compartían esta explicación cardiocéntrica.
De forma paralela, una nueva corriente de pensamiento había surgido décadas antes
a partir de las observaciones de Hipócrates (aproximadamente 460-377 a.C), el padre
de la medicina. Son conocidas sus palabras sobre el protagonismo del cerebro: "Los
hombres deberían saber que del cerebro y nada más que del cerebro vienen las
alegrías, el dolor, el abatimiento y las lamentaciones" En su obra "Corpus
hippocraticum" aparecen múltiples referencias a perturbaciones del movimiento
causadas por una lesión cerebral y el autor vinculó certeramente las heridas en un
lado de la cabeza con convulsiones y parálisis en la mitad opuesta del cuerpo.
El periodo oscuro que supuso la Edad Media, no añadió ningún avance sustancial a
las observaciones de la época clásica, se abandonó la experimentación y la ciencia se
limitó a repetir las enseñanzas de los clásicos.
Junto a la creencia en los nervios huecos, la explicación medieval del cerebro
consistiría fundamentalmente en la denominada "teoría ventricular". Los padres de la
iglesia establecieron que los "espíritus animales" y por lo tanto, las funciones psíquicas
se creaban en los ventrículos o cavidades cerebrales; para la Iglesia Cristiana, el tejido
cerebral era demasiado etéreo, demasiado sucio para actuar de intermediario entre el
alma y el cuerpo. Una diferencia importante con el periodo clásico es que e la edad
media se tendía a localizar las principales facultades mentales en ventrículos
específicos. Así, Nemesius, médico y obispo de Emesa en Siria, bastante influyente en
su tiempo, resumió en el siglo IV lo esencial de la teoría ventricular: "Los sentidos
tienen sus fuentes y raíces en los ventrículos frontales del cerebro, los de la facultad
del intelecto están en la parte media y los de la memoria en la parte trasera. Todos los
sentidos confluirían con sus nervios en un sentido común o senso cune, ubicado en el
ventrículo frontal, donde también se alojaría el alma en el caso de los seres humanos".
Por supuesto nada de esto corresponde a lo que hoy se sabe, de hecho, no existe un
ventrículo frontal delantero.
EL CEREBRO EN EL RENACIMIENTO Y LA EDAD MODERNA
Con la llegada del Renacimiento europeo y el inicio de la Edad Moderna se volvió a la
observación de la naturaleza y a la tabla de disecciones. De la repetición de los
antiguos dogmas, basados en las traducciones árabe-latinas de los textos clásicos, se
pasó a la búsqueda de conocimiento nuevo, lo que supuso un verdadero renacer en
las creencias y pensamiento humanista. En este contexto, Leonardo Da Vinci (1452-
1519)aplicó su extraordinario talento a la anatomía y quiso conocer la forma de los
ventrículos cerebrales a través de un ingenioso método. Inyectó cera líquida caliente
en el interior de esas cavidades y al enfriarse la cera, obtuvo por primera vez un
modelo tridimensional de todo el sistema ventricular del cerebro. Da Vinci se
decepcionó al comprobar que el modelo obtenido no encajaba con la doctrina
medieval, pues no aparecía ningún ventrículo frontal que sirviera de alojamiento para
la senso comune y el alma. Sin pretender renunciar a la teoría ventricular, Leonardo
adoptó una solución de compromiso y recolocó la senso comune en el ventrículo
medio. Lamentablemente al no publicar sus dibujos, estos descubrimientos tuvieron
poco impacto en la anatomía de la época.
La monumental obra del italiano Andreas Vesalius o Vesalio (1514-1564) "De humani
corporis fabrica, traducida como "De la estructura del cuerpo humano o también de los
trabajos del cuerpo humano, publicada en 1543, constituye un hito en la historia de
anatomía humana y quizás uno de los libros médicos más relevantes jamás escritos.
Reúne el resultado de cientos de disecciones humanas y en ellas, Vesalio fue
comprobando que la ciencia anatómica de su admirado Galeno distaba mucho de ser
perfecta. Registró hasta 200 errores y afirmaciones que no encajaban con lo que él
observaba y le sorprendió tanto aparente descuido en el maestro clásico, venerado
generación tras generación. Así se resalta este hecho en Breve Historia del
cerebro (Gonzalez, 2010 p. 29).
En una de las ocasiones en que es invitado a la Universidad de Bolonia, Vesalio
ensambla un esqueleto humano como regalo para sus anfitriones. Junto a el coloca el
esqueleto de in mono con el fin de apreciar las diferencias y de pronto, confirma algo
que sospechaba tiempo atrás ¿como no se le había ocurrido antes? Galeno jamás
había diseccionado a un ser humano! sus descripciones se ajustaban en realidad a la
anatomía de un simio y otros animales. Fue toda una revelación que, en cierto modo,
exculpaba al médico griego, pero ahora, quedaba todo por redescubrir! Así que este
fue un poderoso acicate para la gigantesca aportación de Vesalio, quien comprendió
las limitaciones que habían rodeado a Galeno, recordemos que el impero romano
prohibió las disecciones humanas y jamás humilló en público o ante sus estudiantes la
memoria del insigne precursor.
Tenía Descartes trece años (eso sí, ya era un estudiante universitario) cuando Galileo
enfocó por primera vez su telescopio a las estrellas, y treinta y dos cuando Harvey
demostró la teoría de la circulación de la sangre. La contribución del propio Descartes
al surgimiento de la ciencia moderna fue de gran relevancia. Además de sus
aportaciones a la matemática (particularmente, la geometría cartesiana), dotó a la
ciencia de un método. Desde entonces, el método es lo que distingue a la ciencia de
otros acercamientos al conocimiento de la realidad.
Según cuenta el propio Descartes, cuando estaba en el ejército tuvo un sueño que
podríamos llamar iniciático: se le apareció «el espíritu de la verdad» y le hizo ver que
debía unificar todo el conocimiento humano bajo un sistema regido por las
Matemáticas. A raíz de esto, rechazó su formación escolástica y decidió partir de cero.
Dicen que utilizó su talento matemático en los juegos de azar, a los que era muy
aficionado. También era un buen bailarín. Pero su vida se truncó cuando a la reina
Cristina de Suecia se le ocurrió que podía permitirse recibir las enseñanzas de los
hombres más sabios de su tiempo, y empezó por llamar a Descartes. El filósofo fue
conducido a Suecia en un barco de guerra, e «invitado» a dar clases particulares a la
reina durante cuatro o cinco horas al día a partir de las cinco de la mañana. Descartes
no tenía buena salud, ni costumbre de madrugar de aquella forma, y menos en el
helado invierno sueco. Murió de neumonía pocos meses después.
Al cabo de unos años, sus amigos franceses decidieron que el cuerpo de Descartes
debía reposar en suelo galo y enviaron un ataúd a Suecia. Pero según las autoridades
de aquel país, el ataúd era demasiado corto, así que colocaron en él el cuerpo sin
cabeza, y enterraron de nuevo la cabeza en Suecia, hasta que un oficial del ejército
desenterró el cráneo para guardarlo como recuerdo. Durante 150 años, «la noble
calavera» anduvo en manos de diversos coleccionistas hasta que se volvió a enterrar
en París. Quién le iba a decir al pobre Descartes que sus restos se convertirían
durante años en una metáfora física del dualismo que él lideró.
Cada época intenta comprender el mundo natural tomando como modelo el
conocimiento y el desarrollo tecnológico alcanzado en ese momento. Hoy después del
vapor y la electricidad, el paradigma de referencia es el electrónico, y los ordenadores
constituyen la mayor conquista técnica. Conceptos procedentes de la informática,
como acceso directo, feedback, procesamiento de la información, memoria a corto y
largo plazo, etc, se aplican con naturalidad a la psicología cognitiva y ayudan a
describir aspectos concretos de la actividad mental. En el siglo XVII, el paradigma real
era el mecánico: muelles para los relojes y el agua o el viento como las fuerzas que
impulsaban la tecnología de punta de la época. Consecuentemente, Descartes se
basó en los modelos mecánicos para explicar la conducta y el funcionamiento mental.
Le fascinaban los autómatas o figuras móviles, muy comunes en las fuentes de los
jardines y que merced a los principios hidráulicos, cambiaban de posición por la fuerza
del agua, ejecutaban movimientos de cierta complejidad e incluso cantaban; o los
muñecos mecánicos de las tiendas de las ciudades y los complicados mecanismos de
relojería que los movían. Descartes consideró que los animales eran también
autómatas, una especie de mecanismos de relojería naturales, cuya única diferencia
era que estaban hechos de otros materiales -órganos y partes del cuerpo- y, eso si,
con maquinarias más complejas, así lo explicaba en su discurso del método en 1637:
Su conclusión fue que el proceso de analizar la realidad hasta sus constituyentes más
elementales nos llevaría a topar con verdades inmediatamente evidentes para nuestro
espíritu. Estas verdades son las naturalezas simples. La labor del estudioso es
distinguir lo simple de lo complejo para poder descomponer esto último y enfrentarse
siempre a las naturalezas simples, que son las que hacen posible el conocimiento.
"...- - - lo cual no parecerá de ninguna manera extraño a los que, sabiendo cuántos
autómatas o máquinas semovientes puede construír la industria humana, sin emplear
sino poquísimas piezas en comparación de la gran muchedumbre de huesos,
músculos, nervios, arterias, venas y demás partes que hay en el cuerpo de un animal,
consideren este cuerpo como una máquina que, por ser hecha por manos de Dios,
está incomparablemente mejor ordenada y posee movimientos más admirables que
ninguna otra de las que puedan inventar los hombre..."
Las personas también son maquinarias, pero con una diferencia esencial: tienen alma.
Descartes creía que los espíritus animales se formaban de la glándula pineal que sitúo
erróneamente en el interior de un ventrículo. Según el filósofo francés, esta glándula
que ya era conocida desde la antigüedad y recibía ese nombre por su parecido a un
piñón, pendía libremente en la cavidad del ventrículo y estaba tapizada toda ella de
finísimos conductos que filtraban la sangre y destilaban los espíritus animales.
"Si alguien dispara rápidamente su mano contra nuestros ojos, como para pegarnos,
aunque sepamos que es nuestro amigo, que sólo hace eso en broma y que se
guardara muy bien de causarnos mal alguno, no es sin embargo muy difícil no
cerrarlos; lo que demuestra que no se cierran por intervención de nuestra alma,
puesto que ello ocurre contra nuestra voluntad, sino que se cierran porque la máquina
de nuestro cuerpo está construida de tal modo que al movimiento de esa mano hacia
nuestros ojos provoca otro movimiento en nuestro cerebro, que conduce los espíritus
animales a los músculos que hacen bajar los párpados..."
... Y por último, lo que hay de más notable en todo esto, es la generación de los
espíritus animales, que son como una purísima y vivísima llama, la cual asciende de
contínuo muy abundante desde el corazón al cerebro y se corre luego por los nervios
a los músculos y pone en movimiento todos los miembros...Similarmente puedes
haber observado en las grutas y fuentes en los jardines de nuestros reyes que la
fuerza que hace el salto de agua desde su origen es capaz por sí misma de mover
diversas máquinas o incluso hacerles tocar ciertos instrumentos o pronunciar ciertas
palabras según las varias disposiciones de los tubos por los que el agua es
conducida...
Y verdaderamente, uno podría comparar muy bien los nervios de la máquina que
estoy describiendo (el cuerpo) a los tubos de los mecanismos de estas fuentes, sus
músculos y tendones, a los diversos otros dispositivos y muelles que sirven para
mover estos mecanismos, sus espíritis animales, al agua que conducen. El corazón es
la fuente y las cavidades del cerebro, el acueducto principal...
En este sentido, Descartes se considera que fue el primero que hizo una descripción
detallada del reflejo nervioso, aunque sin designarlo con ese término.
Dualismo cartesiano
Si los músculos del cuerpo no se contraen por la acción de unos misteriosos espíritus
animales, como había demostrado Swammerdam, ¿cual es la causa entonces de su
movimiento que tan dócilmente sigue la voluntad del cerebro?. El holandés
comprendió que la ciencia de su época no podía resolver es dilema y confesó
impotente que la respuesta "se entierra en la impenetable oscuridad". Habría que
esperar casi un siglo hasta los decisivos experimentos de Galvani.
LA FRENOLOGÍA.
A principios del siglo XIX surgió la denominada frenología, un movimiento - no
clasificado como ciencia - fundado por el alemán Franz Joseph Gall (1758-1828) que
ejercía una enérgica influencia a lo largo de los años siguientes. Apareció en un
contexto repetitivo, una época en la que estaba en boga la fisiogmomía o arte -
tampoco considerado como ciencia - de adivinar los rasgos de la personalidad a través
de las características físicas de la cara y el cuerpo. Actualmente puede afirmarse en el
terreno de la ciencia de las diferencias individuales, la correlación matemática entre
rasgos físicos y rasgos psicológicos, es en general muy baja prácticamente nula, pero
en aquella época la gente tendía a otorgar carta de naturaleza a esa convicción
legitimada por "expertos" con pretensiones científicas. Sirva de anécdota que Darwin
estuvo a punto de no embarcar en el Beagle porque al capitán Fitz-Roy no le gustó su
nariz y temía que careciera, según los manuales, de la energía y determinación
suficientes para el viaje. Quizá la historia científica de la evolución habría sido distinta
por culpa de un apéndice nasal.
Franz Joseph Gall visitaba prisiones y asilos para inspeccionar las peculiaridades
craneales de ladrones, asesinos, lunáticos o deficientes mentales. También estudiaba
las cabezas de personas brillantes que habían destacado en alguna cualidad. A los
casos clínicos de enfermedad los consideraba poco valiosos por su carácter atípico y
fortuito, pero si un paciente confirmaba sus ideas no dudaba en incluirlo como una
prueba más. Gall sentía una verdadera pasión por la colección de cráneos; en París,
llegó a reunir cerca de 300 de ellos, junto a un centenar de moldes de personas vivas.
En su opinión, constituían un verdadero libro abierto que lo reafirmaba en sus
convicciones. En ciertos círculos se bromeaba que al morir había de asegurarse de
que el frenólogo no despojaría de la cabeza al cadáver de uno, por lo que hubo quien
dejó escrita en el testamento, la prohibición de efectuar tal cosa. Cuando Gall falleció
de un ictus en 1828, su cráneo pasó a engrosar la colección por expreso deseo suyo.
La frenología arraigó durante las primeras décadas del siglo XIX, tanto entre las clases
populares como en los circuitos intelectuales. El mismísimo Darwin fue diagnosticado
por frenólogos según cuenta en su autobiografía.
"Si se puede confiar en los frenólogos, yo era idóneo en cierto sentido para ser clérigo.
Hace unos años, los secretarios de una sociedad psicológica alemana me pidieron
con toda seriedad por carta una fotografía. Algún tiempo después recibí las actas de
una de sus reuniones en la cual se había debatido, al parecer, públicamente, sobre la
forma de mi cabeza y uno de los ponentes había declarado que "tenía la
protuberancia de la reverencia suficientemente desarrollada como para diez
sacerdotes" (Darwin, 1887) (cursiva del autor).
El informe de Broca tuvo un impacto científico y supuso un fuerte apoyo a las tesis
localizacionistas porque demostraba claramente una localización cortical para una
función específica. Sin embargo no era la primera vez que se relacionada "la pérdida
del habla" con un daño cerebral. ¿Por que entonces resultó tan relevante?.
En los años posteriores al informe sobre "Monsieur Tan", Paul Broca documentó
varios casos adicionales que presentaban la misma zona lesionada, hoy conocida
como -Área de Broca- y los mismos síntomas de pérdida o dificultad del habla. Todos
ellos tenían la lesión en la parte izquierda del cerebro, de modo que, se puso de
manifiesto la especial importancia que el hemisferio izquierdo tiene para el lenguaje en
la gran mayoría de las personas.
Durante el siglo XIX se barajó la idea de que el cerebro tenía distintas partes
identificables que probablemente podrían llevar a cabo diferentes funciones: la
percepción, la emoción o el lenguaje se podían localizar en sistemas neurales
anatómicamente diferenciados.
EL SIGLO XX. LAS NEURONAS Y LA QUÍMICA CEREBRAL
Hasta el siglo XIX, los principales avances sobre el cerebro se referían sobre todo a su
estructura macroscópica, la que puede verse a simple vista. Al pasar al siglo XX, los
interrogantes se tornaron más ambiciosos y el progreso de la microscopía y las
técnicas de tinción abrieron nuevas posibilidades en el estudio de su estructura íntima.
Es el siglo en el que se reconoció a la neurona como la unidad fundamental del
sistema nervioso, la pieza básica que compone el cerebro así como los nervios de
animales y personas.
A finales del siglo XIX, los anatomistas miraban perplejos las complicadas formas de
las células nerviosas y, sobre todo, la intrincada maraña de filamentos que las rodeaba
o procesos como se les denominaba. En ese tiempo ya era conocida la célula y se
aceptaba la teoría celular de los seres vivos, pero existía el convencimiento de que el
sistema nervioso era distinto y no se ajustaba a dicha teoría. Esta confusión nacía de
dos problemas, primero no estaba claro si los largos axones y las más cortas pero
ramificadas dendritas, visibles al microscopio, tenían algo que ver con los cuerpos
celulares de las neuronas; estaba aún menos claro si ambos tipos de filamento se
originaban desde una célula individual; En segundo lugar, los fisiólogos no podían
visualizar la membrana de las células nerviosas, de manera que el sistema nervioso se
presentaba como una inmensa red sin separaciones internas. El impulso nervioso
correría libremente por aquella estructura reticular, y ésa era la explicación dominante
-Teoría reticular- hacia el cambio de siglo.
Tan pronto como en 1873, un reticulista convencido tropezó con un hallazgo fortuito
que habría de revolucionar la microscopía. El médico italiano Camilo Golgi (1843-
1926) trabajaba en un hospital cercano a Milán y dedicaba parte de su tiempo a la
investigación básica; cierto día se le ocurrió ensayar sobre las preparaciones
nerviosas un nuevo procedimiento de tinción basado en el nitrato de plata. Sucedió en
la humilde cocina del hospital habilitada como laboratorio y Golgi nunca explicó cómo
le vino la idea de usar dicha sustancia, un material sensible a la luz que se estaba
empezando a aplicar en la fotografía. Endureció sus muestras con dicromato potásico
y luego las introdujo en una solución de nitrato de plata durante 2 o 3 días; finalmente
las trató con baños de alcohol y aceites, las lavó y cortó en láminas para el
portaobjetos. Cuando Golgi miró a través del microscopio, descubrió estupefacto que
el nitrato de plata propiciaba una enorme "reazione nera" (reacción negra) que
mostraba a las células y los afilados filamentos en un negro intenso sobre un fondo
amarillo ámbar con una nitidez tan extraordinaria que parecían delicados dibujos de
tinta china.
Empleando su método, Camillo Golgi identificó una clase de célula nerviosa,
bautizada con su nombre, dotada de unas extensiones (o dendritas) mediante las
cuales conectaba entre sí otras células nerviosas.
Entre 1885 y 1893 se dedicó al estudio del paludismo, obteniendo, entre otros,
resultados tan importantes como la distinción entre el paludismo terciano y cuartano en
cuanto patologías provocadas por dos especies diferentes de un mismo protozoo
parásito denominado Plasmodium, y la identificación del mencionado acceso febril
como originado por la liberación por parte de dicho organismo de esporas en el flujo
sanguíneo. En 1906 compartió con Ramón y Cajal el Premio Nobel de Fisiología y
Medicina.
Cajal comenzó de este modo la increíble colección de dibujos que hoy se conoce,
ejecutados a tinta china con una precisión y maestría geniales. Estudió cerebelos de
aves, retinas, bulbos olfativos, cortezas, troncos cerebrales, médulas espinales y
siempre encontraba el mismo patrón pese a la enorme variedad de formas neuronales.
Dendritas y axones forman parte de un único cuerpo celular y son independientes de
las dendritas y axones de otras neuronas; no hay, por lo tanto, continuidad,
sino contigüidad entre elementos próximos pero distintos. Por más que buscó, no
halló evidencia de que las conexiones se fusionaran en una red contínua. Fue
surgiendo así un cuadro mucho más ordenado y comprensible del sistema nervioso:
ahora se mostraba constituido por células nerviosas individuales, cada una con un
cuerpo celular y sus propias conexiones; ya no era una colección de núcleos perdidos
en una confusa maraña de filamentos. En palabras de un contemporáneo suyo,
gracias Cajal "El bosque impenetrable del sistema nervioso se ha convertido en un
parque regular y deleitoso".
DIBUJOS DE SANTIAGO RAMÓN Y CAJAL
¿Como dar a conocer al mundo los descubrimientos obtenidos de sus magníficas
preparaciones?
Para aquel entonces, Cajal casado con doña Silveria Fañanás García con quien había
procreado 7 hijos, era catedrático en la Universidad de Barcelona, pero era un hombre
realmente con pocos recursos económicos, los cuales provenían de la cátedra.
Tras solicitar permiso del rector de la Universidad de Barcelona para asistir a dicho
congreso, Cajal viajo a Berlín con el dinero de todos sus ahorros y con su microscopio
bajo el brazo. Viajó en un vagón de tercera y se hospedó en un hostal de tercera en
Berlín. El propio Cajal hace referencia de lo acontecido en su autobiografía al
mencionar:
"Obtenido el permiso del rector (...) para tomar parte en las tareas del susodicho
Congreso, reuní todos mis ahorros y me encaminé lleno de esperanzas a la capital del
imperio germánico. (...) Desde muy temprano me instalé en la sala laboratorio ad hoc,
donde en largas mesas y enfrente de amplios ventanales, brillaban numerosos
microscopios. Desembalé mis preparaciones, requerí de dos o tres instrumentos
amplificantes, además de mi excelente modelo Zeiss, traído por preparación, enfoqué
los cortes más expresivos concernientes a la estructura del cerebelo, retina y médula
espinal y en fin, comencé a explicar en mi pésimo francés ante los curiosos el
contenido de mis preparaciones. Algunos histólogos me rodearon, pocos, porque
según ocurre en tales certámenes, cada congresista atiende a lo suyo: después de
todo, natural es que se prefiriera enseñar lo propio que examinar lo ajeno"
Cajal añade en su autobiografía que: "a los científicos extranjeros presentes en aquel
Congreso “les chocaba, sin duda, encontrar un español aficionado a la ciencia y
espontáneamente entregado a las andanzas de la investigación.”
Tal vez por ello, pocos de estos sabios, por entonces celebridades mundiales,
atendían a sus explicaciones, y los que más o menos atendían, lo hacían con
escepticismo… sin duda esperaban un fiasco…
Hasta ese momento, nada fuera de lo habitual estaba ocurriendo, Cajal debía
ingeniárselas para llamar la atención de los asistentes, mayoritariamente figuras de
prestigio mundial, entre quienes resaltaba Albert Kölliker uno de los más grandes
anatomistas de la época, el patriarca de la anatomía alemana. Es justo en ese
momento cuando Cajal abriéndose paso entre las multitudes se acerca a Kölliker, lo
toma del brazo y literalmente lo arrastra hasta un rincón de la sala donde se encuentra
su microscopio…y hablándole en su pobre francés, Cajal le explica a Kölliker sus
investigaciones y descubrimientos mientras éste atendía a las mismas y observaba
con asombro el microscopio con las muestras que el joven científico español había
preparado. Kölliker alzó la mirada y le preguntó: ¿pero quién demonios es usted?
Charles Sherrington (1857-1952) uno de los neurofisiólogos más notables del siglo XX,
comprendió la importancia de la sinapsis, como así bautizó a esa conexión
(Del griego. σύναψις sýnapsis que significa 'unión, enlace'.) y su papel en la
transmisión nerviosa y en la integración del sistema nervioso en su conjunto. La
sinapsis actuaría como una especie de <válvula>", permitiendo el paso en un sólo
sentido y según sus cálculos, dentro de ella ocurriría una <pérdida de tiempo>, es
decir, se desmoronaba la señal nerviosa, por lo que hipotetizó certeramente sobre la
existencia de un gap o un pequeñísimo hueco, imposible de ver hasta la llegada del
microscopio electrónico. Sherrington recibió en 1932 junto a Edgar Adrian (1889-1977)
el premio Nobel de Fisiología o Medicina por sus <descubrimientos sobre las
funciones de las neuronas >.
Por su parte, la figura clave fue el fisiólogo inglés Edgar D. Adrian (1889-1977), quien
compartiría el Premio Nobel con Sherrington en 1932. Londinense de nacimiento y
formado en Cambridge, pronto dirigió su empeño a desvelar la naturaleza del
minúsculo y escurridizo impulso de las neuronas. El reto era impresionante, dados los
instrumentos disponibles en su época; así lo planteaba Adrian en sus propias
palabras:
Esto sólo sería posible tras los avances electrónicos que se produjeron,
lamentablemente, por causa de la Segunda Guerra Mundial; concretamente, la
invención de la válvula de vacío un dispositivo capaz de amplificar miles de veces las
señales eléctricas. Se trataba del mismo tipo de válvulas de las radios de nuestros
bisabuelos, aquellos receptores que se calentaban y tardaban minutos en encenderse
antes de empezar a funcionar.
Se había conseguido el santo grial: registrar a una sola neurona y desvelar su código
secreto. El análisis de la señal destapó varios fenómenos; cada uno de ellos, un
descubrimiento en sí mismo:
Se confirmó definitivamente la naturaleza tipo «todo o nada» del impulso
nervioso. Todos los impulsos registrados tenían la misma fuerza, no había impulsos
fuertes y débiles.
La neurona codificaba la intensidad de la sensación a través de la frecuencia
de disparo. Los investigadores estiraron el músculo de la rana suspendido con
distintos pesos. Comprobaron que con un peso de 1/4 g la neurona descargaba 21
veces por segundo; con 1/2 g lo hacía 27 veces, y con 1 g, 33. O sea, los nervios
usaban una especie de código Morse con un único tipo de señal.
La neurona se adaptaba muy pronto ante una estimulación constante,
reduciendo su tasa de disparos. Este rápido descenso después de cada estallido
inicial de descargas sugería que los nervios estaban programados para responder a
los cambios, más que a las condiciones estables.
Por lo tanto, las neuronas usaban un código universal basado en la frecuencia de los
impulsos nerviosos o potenciales de acción. No había códigos eléctricos distintos para
transmitir una sensación de luz, frío, o sonido. El código era el mismo y la diferencia
estribaba en el lugar anatómico del cerebro a donde llegaba el mensaje. Una señal en
la corteza visual sería interpretada como luz, mientras que la misma señal en la
corteza auditiva se interpretaría como sonido. Una sensación débil no se codificaba
por un impulso nervioso débil, sino por los mismos impulsos fijos, pero más
espaciados. En palabras de Adrián: «Todos los impulsos se parecen, sea que el
mensaje esté destinado a suscitar una sensación de luz, de contacto o de dolor; si los
impulsos se agolpan, la sensación es intensa, si están dispersos y separados por un
intervalo, la sensación es débil».
Los avances en las investigaciones demostrarían que los cambios operados en las
sinapsis son de naturaleza química y resultan decisivos para que el cerebro y todo el
sistema nervioso, registren información en su interior y modifiquen su funcionamiento
como consecuencia de experiencias previas. Las primeras décadas del siglo XX
sirvieron para desvelar la existencia de los neurotransmisores, tras los primeros
hallazgos sobre la acetilcolina por parte del británico Henry Dale y el alemán Otto
Loewi, galardonados en 1936 con el premio Nobel por sus descubrimientos
relacionados con la transmisión química del impulso nervioso. En realidad, este nuevo
enfoque supuso un "verdadero cambio" en la forma de entender el cerebro y el
sistema nervioso. En palabras del historiador Elliot Valenstein:
A lo largo del siglo XX y durante los primeros años del XXI, se fueron sucediendo
logros espectaculares sobre el sistema nervioso y su funcionamiento. La década de
1990 fue declarada la del <cerebro>. El catálogo de descubrimientos es amplio y
muchos de ellos se analizarán con posterioridad. Gran parte de este avance ha sido
de tipo metodológico y el progreso tecnológico ha marcado en gran medida la pauta de
este conocimiento, principalmente en dos terrenos:
a) en animales, la posibilidad de registros de neuronas individuales ha revelado
como la corteza procesa la información sensorial en sus primeras etapas, por
ejemplo, el colosal trabajo de David Hubel y Torsten Nils Wiesel en la década de
1960, sobre la corteza visual o los de Eric Kandel sobre la memoria, todos ellos
merecedores del premio Nobel; y
b) en la investigación humana, las técnicas recientes de neuroimagen y de
registro neurofisiológico ofrecen la oportunidad de observar al cerebro en acción.
Desde los inicios del siglo XX, los interrogantes se tornaron cada vez más ambiciosos
y el progreso de la microscopía, las técnicas de tinción y las técnicas farmacológicas
abrieron nuevas posibilidades en el estudio de las neuronas y de la química cerebral.
A continuación se planteará una cuestión que en las próximas décadas cobrará plena
actualidad y que en el momento presente lleva a reflexionar sobre aspectos
fundamentales acerca de lo que es una mente y la relación con su soporte material.
Curiosamente, fue un asunto que, en otros términos, ya Descartes abordó 400 años
atrás. El planteamiento se basa en las siguientes referencias bibliográficas:
Aunque el objetivo inicial era bélico, pronto se demostró que las nuevas máquinas
eran algo más que simples «masticadores» de números. También se revelaron
competentes en el manejo de información simbólica y hallaron nuevas y más
elegantes soluciones a teoremas clásicos de la lógica matemática. Por un momento
parecía que no había límites a sus posibilidades. En la década de 1960 se creía que
hoy, en el siglo XXI, estaríamos rodeados de robots y máquinas inteligentes con las
que nos comunicaríamos «de tú a tú», como hacemos entre los seres humanos. Para
la psicología, los ordenadores constituyeron una nueva metáfora que ayudó a
alumbrar al naciente paradigma de la psicología cognitiva. Términos de la cibernética
como procesamiento de la información, acceso directo, memoria a corto y largo plazo,
memoria de trabajo, etc. se trasladaron y aplicaron con naturalidad a la psicología
cognitiva para describir aspectos del funcionamiento mental.
Todo va a depender de una cuestión más profunda, para la que no hay respuesta aún:
¿en qué consiste pensar? Si el pensamiento, y toda la vida mental asociada, es el
producto de las conexiones entre millones de unidades elementales de
procesamiento –neuronas–, y es precisamente la consecuencia de esas
interconexiones, entonces podrían obtenerse tener resultados semejantes en cualquier
sistema que incorporara la misma estructura de enlaces. Es posible crear chips que
funcionen como neuronas individuales, y en un futuro podrían conectarse millones de
ellos entre sí, configurando sistemas de estructuras.
Por el contrario, la posición de John Searle y sus seguidores tiene otro enfoque, en la
denominada posición débil de la IA. Para Searle, el pensamiento es un producto
biológico de un órgano particular, el cerebro, del mismo modo que la digestión lo es
del estómago. El cerebro produce, «segrega» vida mental, al igual que el hígado
segrega bilis o el páncreas insulina. Una máquina, un ordenador, podrían «simular» la
inteligencia e incluso el pensamiento, pero esto no sería pensamiento real, del mismo
modo que un ordenador puede simular la digestión, o la combustión de los
hidrocarburos, pero esta simulación no es una combustión real que mueva a un coche.
En fin, éstas son dos posturas claramente divergentes, en un planteamiento aún
abierto.
Este tema de reflexión se enmarca, en realidad, en otro más amplio sobre el uso de
los animales en la experimentación biomédica, más allá del campo estrictamente
neurocientífico.
Los neurocientíficos siguen unas reglas que, de acuerdo con la revisión de Bear et al.
(2007), son las siguientes:
1. Los animales son utilizados únicamente en experimentos importantes que
pueden hacer progresar el conocimiento del cerebro y del sistema nervioso.
2. Se toman todas las medidas establecidas para disminuir al mínimo posible el
dolor y la incomodidad (uso de anestésicos, analgésicos, etc.).
3. Se consideran todas las posibles alternativas a la experimentación animal.
Estos pasos son garantizados a través de comités éticos que deben aprobar la
investigación, y la autorización debe figurar en todos los trabajos publicados.
La mayoría de las personas aceptan la necesidad de experimentación animal para que
la ciencia avance, siempre que se respeten las reglas éticas establecidas al respecto.
No obstante, en algunos países en las últimas décadas han surgido con fuerza
organizaciones que se oponen frontalmente a todo tipo de experimentos con animales,
a veces con actividades más o menos violentas como pintadas en las puertas de los
laboratorios y otras acciones. ¿Habría que prescindir de cualquier estudio en que
intervengan animales? ¿Estaríamos dispuestos a privarnos de los avances necesarios
para el tratamiento de, por ejemplo, enfermedades neurodegenerativas como la de
Parkinson o la de Alzheimer y demencias que afectan a millones de seres humanos (y
cuya investigación neurobiológica es principalmente animal)? Desde distintos ámbitos
científicos y no científicos se han llevado a cabo campañas de información en este
terreno. Una de ellas es la Foundation for Biomedical Research.
Después de leer con atención los detalles de ambas posiciones y sus respectivas
razones ¿cuál es tu opinión al respecto? Justifica tu argumento e
intenta sostenerlo con argumentos razonados en el siguiente cuadro de diálogo a más
tardar el día 24 de junio.
Análisis molecular
Análisis celular
Análisis conductual
Este nivel de análisis examina cómo trabajan de forma conjunta y orquestada los
distintos sistemas neuronales que dan lugar a las conductas complejas del organismo:
cómo funcionan de modo integrado las redes de memoria o los sistemas que
participan en las conductas motivadas, como el hambre, la sed o el sexo; qué partes
cerebrales intervienen en los estados de alerta o en el origen de los sueños, etc.
Análisis cognitivo
¿De qué manera me sirve conocer que un determinado subproceso tiene lugar en tal o
cual estructura anatómica? Eso lo dejo para los neurofisiólogos. A mi me interesa el
<cómo> no el <donde>. Este podría ser una expresión o lugar común de algunos
psicólogos al abordar estas cuestiones..
Sin embargo, los últimos avances ponen de relieve que el enfoque multidisciplinar de
la neurociencia cognitiva es enriquecedor y abre nuevas posibilidades, como así lo
reconoce la mayor parte de la comunidad científica. De hecho los análisis
bibliométricos señalan un incremento espectacular en el número de publicaciones de
corte neurocognitivo. Siguiendo a Richard Henson y a muchos otros autores puede
considerarse que ambas aproximaciones son complementarias, antes que
excluyentes. Los datos procedentes de las técnicas de neuroimagen son en realidad
nuevas variables dependientes que añaden valor a las ya disponibles. En el estudio de
una determinada función u operación mental es posible contar con un conjunto de
variables dependientes que son medidas <de salida> de los experimentos: tiempos de
reacción, proporción de aciertos en la tarea, medidas fisiológicas convencionales como
la respuesta electromiográfica de los músculos o la conductividad eléctrica de la piel,
etc. Ahora los cambios hemodinámicos del cerebro detectados mediante la tomografía
por emisión de positrones (PET) o las imágenes por resonancia magnética funcional
(RMf), así como los registros ofrecidos por las técnicas de potenciales evocados o de
magnetoencefalografía (MEG) representan nuevas medidas valiosas que se suman a
las anteriores y ayudan a entender mejor las funciones estudiadas.
Por otra parte, la experiencia ha demostrado que el enfoque cognitivo convencional del
procesamiento de la información resulta insuficiente para caracterizar toda la
complejidad del funcionamiento mental. En la actividad cerebral no cabe una
separación tan nítida como en un ordenador entre el software y el hardware y su
naturaleza computacional es fundamentalmente paralela, íntimamente enraizada en
las redes neuronales.
Tampoco es cierto que la naturaleza material de los procesos no sea informativa sobre
el funcionamiento de éstos. Así una teoría podría postular que el reconocimiento de las
caras se basa en un mecanismo de comparación serial entre el estímulo visual de
entrada (o una abstracción de éste) y las representaciones faciales almacenadas en la
memoria. La consideración del tiempo mínimo de procesamiento de las neuronas -del
orden de decenas de milisegundos- excluye esta posibilidad y sugiere que tal
algoritmo secuencial sería incompatible con el número de rostros que generalmente
cada persona conoce -decenas de miles- y el tiempo típico que requiere la
identificación de un rostro -centenas de milisegundos- (ejemplo de Henson 2005).
Para Fodor hay dos clases de procesos mentales: los procesos centrales y los
procesos modulares o módulos. Un módulo sería un tipo de proceso con
características particulares:
Los módulos son específicos de dominio, o sea, están especializados en un
tipo particular de estímulos y sólo trabajarían ante una clase específica de
información. Por ejemplo, un módulo especializado en un determinado subproceso
perceptivo visual sólo actuaría ante estímulos visuales de ciertas características,
permaneciendo impasible ante otras clases de estimulación.
Fodor planteó también otras características, como el hecho de que los módulos son
innatos y su desarrollo ontogenético sigue una secuencia madurativa fija, de unos
individuos a otros, durante las primeras fases de la evolución infantil. Para él, los
módulos también debían ser compactos y estar localizados en estructuras neuronales
fijas. Hoy los modularistas no ponen tanto énfasis en este rasgo, porque hay evidencia
de que ciertos procesos automáticos, dotados de algunas de las características
mencionadas, podrían interesar sistemas neurales distribuidos.
Muchas de estas ideas han sido criticadas desde otros enfoques. Otros autores
aceptan algunos de los planteamientos modulares en una versión más débil. Por
ejemplo, se considera que la lectura puede ser modular en muchos aspectos, pero no
sería en sí un módulo innato, porque es muy reciente en su evolución.
Los estudiantes que deseen profundizar en este tema, se recomienda consultar el libro
de Fodor y, como principal exponente de la posición crítica, el libro de Annette
Karmiloff-Smith:
Fodor J. La modularidad de la mente. Madrid: Morata, 1986 (orig. 1983).
Karmiloff-Smith A. Más allá de la modularidad: la ciencia cognitiva desde la
perspectiva del desarrollo. Madrid: Alianza, 1994 (orig. 1992).
Lo anterior puede complementarse con otras lecturas posteriores que ofrecen una
visión integradora:
Material de apoyo:
ACTIVIDAD DE APRENDIZAJE: Con relación a la información antes mostrada y al
material de apoyo, realiza un mapa conceptual en el que se explique en que consiste
la mente modular.