Biografía Del Universo
Biografía Del Universo
Biografía Del Universo
1
Marzo 2018
(https://eltamiz.com/elcedazo/biografia-del-universo/)
(https://www.nasa.gov/sites/default/files/thumbnails/image/image2
i1607bw.jpg)
2
ÍNDICE
Prólogo 5
5
otra biografía particular, podríamos decir una rama de la anterior,
acerca de la historia que hizo que unos animalillos indefensos se
convirtieran en unos feroces competidores en el vértice de la
pirámide, gracias a que una serie de carambolas azarosas y
coyunturales los colocó allí. Una aventura que la hemos contado
como “Biografía de lo Humano”, esto último con mayúscula. En este
libro propongo el que nos adentremos en la intrincada selva del
escenario en donde se llevaron a cabo las dos anteriores obras
teatrales: el Universo, también éste con mayúsculas.
Así que hablemos ya de la “Biografía del Universo”. Mi nueva
propuesta.
Como en las otras ocasiones citadas, este libro es el resultado de
múltiples lecturas dispersas, cazadas a vuelapluma, inicialmente
desconexas y con el único propósito de satisfacer mi curiosidad.
Como siempre, mil notas y apuntes que satisfacían también mis
aficiones escritoras. Son años de descubrir y decantar. Aunque ahora,
con la experiencia que me dieron el vivir las otras series, el enfoque
último lo tenía en la cabeza: [1] aprender de una historia que debía
ser hilada y coherente, [2] divulgarla a través de una plataforma cuyo
útil principio fundacional dice así como que “un buen entendimiento
necesita de la ayuda de una buena simplificación”, lo que permitía a
mi formación ingenieril ponerse a tiro de la obra que me proponía,
y [3] esperar la lluvia enriquecedora de los comentarios de los
lectores, absolutamente necesarios. Y así surgió otro de mis libros de
viajes, que se fue viendo a lo largo de la serie homónima del blog “El
Cedazo”.
La idea es muy simple: Partiendo del inicio que suponemos para el
Universo, el Big Bang, llegar a la comprensión de cómo surgieron, y
siguen en ello, las estructuras del Universo que observamos a nuestro
alrededor. Éste puede ser un posible sucinto guión:
El momento cero
El hipotético escenario del Universo en las edades de Planck,
cuando la gran unificación de las fuerzas fundamentales
El hecho de la inicial inflación exponencial del espacio-tiempo
Cómo surge la radiación y la materia
6
La sopa del plasma materia-antimateria de la época electrodébil
Las partículas elementales en el plasma quark-gluón
Higgs haciendo de las suyas
Aparecen los hadrones… entre otros, los protones y los
neutrones.
Los hadrones se constituyen en asambleas, formando algunos
núcleos de unos pocos elementos químicos
La música del Big Bang y su reflejo en la primera foto de
familia gracias a la radiación de fondo
La materia entra en faena una vez que la pegajosa radiación
decide liberarse
De la oscuridad a la luz gracias a las primeras estrellas y
galaxias
La compactación y ordenamiento de la materia
La estructura final del Universo
7
8
01: Introducción a una historia real
Tiempo 0/∞
… “Desde mi posición en [α1110 β5 π47 … ΩtΛtx] soy capaz de
percibir el colapso. Cómo definirme. Una inteligencia en el mundo
de las cuerdas, dimensión 11. Notario fehaciente de todos los
sucesos. Incluso los del pequeño Cosmos de cuatro dimensiones
próximo a nacer. Como tantas otras veces, comienzo a experimentar
el ligero desvaído en el que me sumiré durante el paso de la…
singularidad. No me preocupa. Soy un experto en este tipo de
experiencias, por otro lado muy normales en los espacios de Kalabi-
Yau donde habito. A veces, alguno de estos organismos
multidimensionales juega a ser niño y alardea de crear florestas con
unos pocos de sus múltiples brazos. Intuyo que es el momento. Como
el cloroformo antes de las anestesias, huele a infinito eterno… antes
de la tiniebla ¡Nos vemos en el más allá!” …
10
En el legado de la humanidad, la teoría y la matemática. Los
instrumentos y la experiencia. Las herramientas con las que
imaginamos el nacimiento y devenir posterior de nuestro Universo.
En los primeros pasos nos ayuda la teoría del Modelo Estándar de
física de partículas. Un modelo teórico cuyas predicciones se vienen
comprobando con exquisita precisión. Conjugando la Física Cuántica
de Campos, la Relatividad Especial y los datos que proporciona la
medida de lo observado, el Modelo Estándar nos va a acompañar
durante la explicación, posible o probable, de los inicios del Cosmos.
No en toda su extensión temporal hay que avisar, porque, al igual que
no conocemos lo anterior al punto de partida, tampoco conocemos,
ni tenemos herramientas para teorizar y poder luego comprobar,
acerca de una buena parte de las cosas interesantes y cruciales que
sucedieron en los primeros momentos. Corto espacio de tiempo, pero,
repito, crucial. A medida que la historia discurre tenemos ya teorías
e instrumentos que nos permiten conjeturar, e incluso vivir, las
incógnitas de la niebla inicial.
Por tanto: momento anterior al inicial, desconocido; momento
fundacional 0/∞, obviamente lo mismo… ¿quién puede meter la
cabeza en la incongruencia del cero infinito? Quizás algún día.
Sigamos.
Tres constantes físicas fundamentales de nuestro Universo nos
definen el primer escenario que creemos poder imaginar. Imaginar,
que no medir. Suponemos que este espacio real en un tiempo ya real
tendría unas dimensiones físicas exiguas y unas densidades de
energía y temperatura gigantescamente inimaginables. Las tres
constantes son c, la velocidad de la luz; G, la constante gravitatoria
universal; y h, la constante de Plank. Con las tres, y solamente con
ellas tres, podemos definir este diminuto y superpotente punto inicial.
Carnet de identidad del espacio-tiempo inicial: en el momento
igual a un “tiempo de Planck”, 5,391 x 10-44 segundos, tenía un
tamaño de una “longitud de Planck”, 1,161 x 10-35 metros.
Almacenaba una energía equivalente a la “masa de Planck”, 2,176 ×
10−8 kilos a una “temperatura de Planck” de 1,417 × 1032 K. Por
debajo de este tamaño, se cree que el espacio deja de tener sentido.
11
Por debajo de este tiempo no hay tiempo medible. Éste creemos fue
el punto de partida. Para saber algo de él, un mundo cuántico de
energías einstenianas, tendríamos que saber compaginar
teóricamente la mecánica cuántica y la gravedad, cosa muy alejada
de nuestras posibilidades actuales. Todo son conjeturas, no hay
evidencias de un inicio a partir de una singularidad infinita, ni hay
evidencias de que surgiera de un espacio-tiempo espumoso, ni
siquiera surgió de la imaginaria idea acerca de un “huevo cósmico
primigenio” que explotó.
15
Toda esta historia es la que me dispongo a contar. Ya sabemos que
una parte son suposiciones y que otra son realidades. Iremos a por
ello en el siguiente capítulo.
1. He optado por esta cifra como la mejor edad que tenemos ahora
mismo del Universo. Realmente es de unos 13,798 +/- 0,037
miles de millones de años según la misión Planck de la European
Space Agency, 6 de junio de 2014.
16
02: Momento cero
t = 10-43 segundos
Tras el introductor capítulo anterior, en el que intenté explicar el
contenido y propósito de este libro titulado “Biografía del Universo”,
viene este en el que ya vamos a entrar en materia. Para empezar, me
voy a tomar la confianza de repetir uno de los primeros párrafos del
capítulo anterior, como recordatorio de algo muy real:
“Ciertamente nadie en este mundo, el de las x,y,z y t sensibles, sabe
de dónde viene nuestro Cosmos ni cómo fue su primer instante. Y si
alguien dice que tiene la clave miente como un bellaco. ¿Nació en
aquel incógnito momento el entramado del espacio-tiempo que
conocemos? ¿o fue simplemente una extensión 0/∞ de otro ya
existente? O como en el cuento imaginado: ¿resultó un rebote de algo
anterior? ¿o surgió exnovo del vacío? Pero ¿qué es el vacío?
Podemos imaginar, inventar, conjeturar… pero no sabemos nada de
nuestro momento t=0 -¿y si no hubo t=0?-. Aunque menos aún que
menos sabemos de t<0”.
Es una época de niebla en nuestro conocimiento. No tenemos
herramientas teóricas para estudiarlo deduciendo certezas. Ni
capacidad técnica para comprobar nuestras deducciones, a pesar de
que hay una buena nómina de buenos y serios hombres de ciencia que
se fajan a fondo con ello. Quizás alguno de ellos sea de categoría
einsteniana y nos descubra el antiguo mundo. Pero, hoy por hoy, no
sabemos nada.
Nosotros confiamos en dos cuerpos de teoría: la relatividad de
Einstein -en sus dos facetas, la especial y la general- y la teoría
cuántica de campos. A fuer de ser horriblemente simple diré que la
primera entiende de lo grande y la otra de lo pequeño.[1] Al conjuntar
lo grande y de energías relativistas con el mundo de lo pequeño y de
incertidumbres cuánticas hemos podido calcular un Universo teórico
que se expande. Y funciona muy bien -la realidad observable coincide
con las previsiones- asegurando unas hipotéticas condiciones
17
iniciales de gran densidad y temperatura. ¿En qué momento? Ni idea,
pero teóricamente funciona.
18
la conocida correlación propuesta por Max Planck[2]. Si la estrella en
donde se encuentra ese átomo se aleja de nosotros, la longitud de onda
del fotón se “estira”, apareciendo en la espectroscopia las bandas
características situadas en el espectro de frecuencias más pequeñas a
las que teóricamente le correspondería, lo que se conoce como
“corrimiento al rojo”[3]. Pues bien, Hubble determinó con sus
estudios que una gran cantidad de aquellas “estrellas” eran otras
galaxias y no estrellas de la Vía Láctea, y que además se alejaban de
nosotros, con la circunstancia de que cuanto más alejadas
estuvieran lo hacían a mayor velocidad.
Eso de que el Universo se expande, que en el fondo es la causa de que
todo se aleje de todo, ya se lo había encontrado Einstein. La
formulación que sigue es la ecuación de Friedmann, simplificación
de las de la Relatividad einsteniana para un universo uniforme y
homogéneo. En el mundo de la Cosmología es de gran trascendencia,
ya que describe la dinámica de la expansión. En ella, el factor H es la
constante de Hubble, que da idea de la velocidad de esa expansión.
21
Sólo por hacernos una idea: En el mundo de Planck, cuyas
magnitudes introdujimos someramente -y no hacía falta más- en el
capítulo anterior, se nos sugiere una energía del orden de los 1028 eV.
Así que ustedes calculen: la teoría nos insinúa que en un espacio-
tiempo vacío de energía, si hay que desarrollar este mundo
minúsculo, que se asimila al más primigenio de 1028 eV, según el
principio de incertidumbre tendríamos de tiempo tan sólo la constante
de Planck, 10-15 electrón-voltios por cada segundo, dividida por esa
incertidumbre en la energía del orden de 1028 eV. Lo cual nos dice
que podríamos obtener esta energía durante un tiempo medido con
una incertidumbre de 10-43 segundos -¡anda!, muy parecido al tiempo
de Planck- para darnos prisa y hacer el trabajo. Si además el mundo
está expandiéndose a una velocidad tal que los pares de partículas
“virtuales” que materializan esta energía se separan tan rápido que no
vuelven a interactuar entre ellas y desaparecer, tendremos un mundo
en marcha. Y una ¿casualidad? más: si ponemos a la luz a correr a su
inmutable velocidad de 300.000 kilómetros por segundo durante este
tiempo de Planck, recorrería una distancia igual a la longitud de
Planck. Curioso. ¿Es que la teoría nos está intentando sugerir que el
universo está íntimamente constituido por unos parámetros que
indican que para el tejido del espacio-tiempo no haya tamaño más
pequeño que la longitud de Planck? ¡Un espacio-tiempo
cuantificado! ¿Un cuanto como semilla del Big Bang?
Con eso no digo que ésta fuera la historia, sino que esto es lo que nos
sugiere una posible matemática, realmente más compleja que los
tontos cálculos del párrafo anterior, que desarrolla los mundos de la
relatividad y la cuántica. Es decir, hay opiniones que contemplan la
posibilidad, por demostrar, de que todo surgiera en un cuanto del
espacio-tiempo, en una de las infinitas fluctuaciones cuánticas que se
deben suceder en este espacio-tiempo: un robo al vacío de un campo
desconocido, por el que surge mucha energía en un corto espacio de
tiempo. Si el cuanto del espacio-tiempo escenario del suceso está en
un proceso de expansión, es posible que el suceso sea irreversible.
La idea de un espacio-tiempo inicial cuantificado nos permite seguir
motivando a nuestra imaginación. Uno de los pensamientos que
surgen nos lleva a la idea de que si el cuanto mínimo de tiempo es el
22
de Planck de 10-43 segundos, realmente nunca hubo un tiempo de
valor cero para nuestro universo. Luego… no busquemos qué fue
lo que pasó en t=0, lo cual incluso satisface a muchos, ya que
entonces no habría una singularidad inicial que invalide las
ecuaciones de la Relatividad.
Otra idea que se nos ocurre se deriva del hecho de que en cualquiera
de los minúsculos cuantos planckianos que conformaron el espacio-
tiempo inicial se producirían continuamente inestabilidades, durante
las que aparecían y desaparecían partículas virtuales. Al ser la zona
espacio-temporal donde eso pasaba tan pequeña, la energía de
movimiento de dichas partícula sería muy grande: a espacio más
confinado, velocidad -energía de movimiento- más elevada. Lo cual
no deja de ser un reflejo más de un nuevo enlace de incertidumbres,
ahora entre otras dos variables conjugadas como son la posición y el
momento lineal de las partículas. Mucha energía que, si recordamos
lo que nos dijo Albert Einstein, deformaría el tejido del espacio-
tiempo… lo cual es la base de la interacción gravitatoria. Es decir, la
gravedad tuvo que independizarse ya en el mismo momento
inicial. Sin contravenir las teorías GUT de unificación de fuerzas[4].
La gravedad es una fuerza atractiva y universal. Para no sentir su
efecto teóricamente nos tenemos que desplazar hasta el infinito,
alejados del origen de masas gravitatorias. Si queremos desplazar un
objeto con masa desde cualquier punto también con masa -por
ejemplo, la superficie de la Tierra- hasta el infinito, tendremos que
luchar contra esta fuerza atractiva. Lo cual nos indica que el potencial
gravitacional en el punto de partida es menor que el de llegada, es
decir, le hemos tenido que dar energía a la masa que desplazamos.
También lo podemos ver al contrario: cuando en algún momento
anterior la masa del ejemplo se había situado en el punto de partida -
la superficie terrestre- de menor potencial, en el proceso la gravedad
habría quitado energía a dicha masa. Si lo pensamos en la superficie
de la Tierra, una piedra que cae[5] va perdiendo energía potencial
gravitatoria… aunque bien es cierto que esta energía que pierde la
gravedad se la va devolviendo en forma de energía de movimiento.
La conclusión es que la gravedad, en su trabajo de atracción, lleva
implícita una energía negativa. Dicho esto ¿qué hubiera pasado si
23
toda la gravedad, en aquellos momentos iniciales, estuviera
introduciendo una energía, que ya sabemos que es negativa, igual a
la de la masa equivalente a aquella energía inicial que surgió robada
del vacío cuántico? Que esta fugaz energía inicial pudo haber sido
contenida en el tiempo gracias a la gravedad que indujo. Una por
otra… promedio cero. Lo que nos permite razonablemente poder
hacer la siguiente hipótesis: el cuanto constituyente del tejido básico
del espacio-tiempo universal -y pudo haber infinitos cuantos, aunque
eso nos llevaría a otra discusión- se vio sometido a un “destello” de
energía que lo expandió y deformó, permitiendo la gravedad
asociada el que esa energía permaneciera en el tiempo. Con ello
se había creado nuestro eje de coordenadas temporal.
energía cuántica fundacional + (-energía gravitatoria) = cero:
una posible explicación del inicio de todo[6]
Esta determinada función de circo cósmica es el punto de partida para
las teorías más sólidas de la evolución del Universo. Aunque insisto:
el hecho de que sean sólidas, y que lo que digan se ajuste a la realidad
observada, no las hacen más reales: seguirán siendo conjeturas
mientras la realidad de los inicios permanezca escondida en la niebla
del desconocimiento humano. Esto quiere decir que quizás el tiempo,
como tal lo imaginamos, no existía en aquellos ¿momentos? Y quiere
decir que tal vez la física que manejamos, y en la que confiamos, no
era aplicable en aquella “esfera” mínima y deformada de espacio-
tiempo. Y quién sabe si realmente aquel momento fue
superenergético o superdenso. O si fue el inicio o simplemente la
continuación de algo. No lo sabemos. Nos intriga el desconocimiento,
pero no nos desazona, ya que realmente podemos sentirnos “llenos”
con todo lo que imaginamos saber a partir de la teoría. Conjeturas
muchas de ellas que hemos podido comprobar que son reales en el
mundo frío y poco denso, casi vacío, en el que vivimos.
No hay singularidad inicial, el espacio-tiempo está cuantificado; el
Universo se expandía desde el inicio; no hubo origen de tiempos en
un valor cero; surge una energía del vacío en un instante de
inestabilidad cuántica; la gravedad se manifiesta en un primer
momento; la gravedad ata a la energía primera; y cuántas
24
circunstancias más pudieron tener lugar… Estas son las conjeturas y
la teoría del tiempo t=10-43 segundos.
A partir de ahí, el amoldar esta teoría con la realidad parece exigirnos,
como veremos en otro capítulo, un episodio de una gran expansión
del tejido espacio-tiempo. Más rápida que la velocidad de la luz. Al
final de la cual se creó la materia y la radiación.
26
densidad de energía en el universo es justo la necesaria para que
éste se expanda a una velocidad constante, entonces la energía
asociada a ese movimiento es igual a la energía asociada a las
distancias entre las partículas. Dicho de otra forma, la energía
cinética es igual a la energía potencial. Ahora bien, como la
energía de un sistema material es la suma de estas dos energías,
entonces la energía total debe ser exactamente cero. En otras
palabras, el universo nace de la nada y no hay que hacer para
crear un universo”.
27
03: Las edades de Planck
28
El escenario: el tejido espacio-temporal vacío, ni energía ni
partículas, y potencial a nivel cero. ¿Cómo de grande? No lo
sabemos. De hecho, no sabemos siquiera si éste fue el escenario. Pero
vamos a jugar con esta hipótesis. Un tejido que bien pudiera estar
cuantificado por el rigor que impone la longitud o el tiempo de
Planck. En estas semillas, el mundo de lo más pequeño, impera la ley
de la mecánica cuántica. El principio de Heisenberg, del que
hablamos en el capítulo anterior, nos dice que en este entorno es
posible la aparición de mucha energía durante un corto espacio de
tiempo. Esta energía es la manifestación de un campo intrínseco a
este cuanto de espacio-tiempo energizado. Aunque en estos tamaños
no tenemos ni idea de cómo funciona la gravedad, ya que la teoría de
la relatividad desgraciadamente no puede decirnos nada ahí -no
tenemos ni idea de cómo funciona en las pequeñísimas escalas-.
Podemos conjeturar con base a la idea de que, al haberse creado una
energía a partir del vacío, esa energía produce gravedad, o lo que es
lo mismo, deforma el tejido espacio-temporal. Creando así una
burbuja expansiva. Esto sucedería en todo momento en cualquier
punto del completo escenario, por lo que podemos llegar a la
conclusión de que el espacio-tiempo, en su ámbito más general y
absoluto, tiene una apariencia espumosa[1]. Lo cual incluso nos podría
llevar hasta otro tipo de consideraciones relacionada con multiversos,
que aquí no son nuestro propósito.
Antes de seguir, repito una vez más: ésta es una historia teórica, no
tuvo por qué ser una historia real, aunque a lo mejor fue así. Hoy
creemos tener forma de calcularla, pero no podemos observarla.
Quizás en un futuro podamos tener la foto primigenísima de las ondas
gravitatorias -sí, el espacio-tiempo ondula ante una dinámica de
variación de masa- surgidas en las perturbaciones de energía de aquel
momento.[2] Pero sigamos con la novela, volviendo al momento en
que una de aquellas burbujas ha comenzado a tener vida propia. Un
pequeño trozo del tejido espacio-tiempo se estaba expandiendo.
Había robado energía de algún campo desconocido, quizás del propio
espacio-tiempo, en una cuantía que es desconocida para nosotros.
Sólo sabemos que hoy en día observamos en la radiación de nuestro
Universo una energía equivalente en masa del orden de 1053 gramos.
En los tiempos del espacio de Plank, donde se apoya el inicio para
29
nuestras teorías, la temperatura del mini-universo -o la energía, que
tanto da- era 1032 veces mayor que la de ahora. Luego para “crear” el
Universo que conocemos tenemos que pensar que en su arranque la
energía de la radiación primigenia debería ser del orden de 1085
gramos. Desde luego, es mucha, pero igual si nos asomamos al único
banco energético del momento, el de Planck, podemos encontrar un
activo suficiente para prestar lo que necesitamos: 1085 gramos.
Desgraciadamente, parece que tenemos un problema de difícil
solución, ya que la masa de Plank es tan solo del orden de 10-5
gramos.
¿Cómo se pudo pasar de una a otra? No adelantemos acontecimientos
y vayamos paso a paso. Estamos en una situación de un universo que
decimos pequeño, con mucha energía y que se expande. ¿Cómo
sabemos que nuestro pequeño espacio se estaba expandiendo si no
podemos medirlo? ¿Y por qué se expande?, e incluso ¿qué tenemos
que entender cuando hablamos de que el tejido espacio-tiempo se
expande?
La primera pregunta ya la contestamos en el capítulo
anterior. Básicamente es que debemos suponer que se expandía. Hoy
somos capaces de observar que nuestro universo lo está haciendo e
incluso podemos medir a qué velocidad y con qué aceleración lo
hace. Si hoy se expande aceleradamente no es muy arriesgado pensar
que si pudiéramos poner esta película marcha atrás observaríamos
cómo se va contrayendo de forma cada vez más pausada. Lo cual nos
lleva a la idea teórica del punto inicial del Big Bang. Volviendo de
nuevo el vídeo al forward, no nos queda más remedio que imaginar
que este punto se expandía. Por otro lado, tenemos una teoría muy
consistente, la de la Relatividad, que nos explica matemáticamente
cómo lo hace: el Universo tiene que seguir una dinámica espacio-
temporal que satisfaga una relación directa entre la geometría del
universo y su distribución de energías. De forma que su variación de
escala, en nuestro mundo de curvatura aparentemente nula, ha de
seguir la siguiente ecuación:[3]
ä(t) = – K (ρ+3p) a(t)
30
en la que a(t) nos dice en cuánto varían las dimensiones del universo
(y con dos puntitos es su aceleración), ρ es la densidad de energía de
los campos presentes en el universo y p la presión que generan estos
campos.
El Universo, por tanto, se expandía desde sus momentos primigenios.
El fenómeno sólo afectaba a su propio tejido espacio-temporal y no a
su contenido, que queda bajo el efecto de otras fuerzas, como la
gravedad.[4] Como si estirásemos un mantel de caucho: el propio
mantel se agrandaría, pero no las migas de pan que estuvieran sobre
él. La pantalla de la película que hoy mide un metro, mañana medirá
dos. Las partículas de polvo sobre ella seguirán igual, eso sí, pero
cada vez más alejadas unas de otras, aunque también pudiera ser que
dentro del contexto expansivo se estuvieran aproximando
relativamente unas a otras gracias a la acción mutua de sus
interacciones gravitatorias. No, la expansión que “engorda” al
Universo no nos engorda a nosotros, como podemos colegir de la
siguiente figura que intenta aclarar la realidad de lo que sucede.[5]
31
el siguiente capítulo. No os inquiete la curiosidad. Ahora, supuesto
ya entendido qué es esto de que el universo se expande, sigamos una
vez más con nuestra historia interrumpida.
Todo había empezado a los t=10-43 segundos, cuando una “excursión”
cuántica de energía seguida inmediatamente por la aparición de la
gravedad, había generado nuestro pequeño y dinámico escenario. En
el momento de partida tenía un nivel de energía de 1019 GeV que
pronto decayó, gracias al efecto expansivo que enfriaba nuestro
universo, hasta unos 1015 GeV, en el tiempo t=10-35 segundos. Esta
energía era suficiente como para que de ella apareciesen pares
partícula-antipartícula, cualquiera que tuviera una masa -lo que
equivale a energía en reposo-[6] inferior. Es decir, todas las partículas
que podamos imaginar incluidas las exóticas de la materia oscura que
a día de hoy no sabemos ni cuáles son. Los componentes de cada par
de partículas en aquel universo tan pequeño estaban muy próximos,
así que tan rápidamente como aparecían desaparecían, aniquilándose
mutuamente y dejando un rastro de energía.
Además de la gravedad, durante todo este periodo actuaba una sola
interacción, una fuerza única en la que se identificaban la
electromagnética y las nucleares fuerte y débil. El concepto de masa
o de carga, ya fuera ésta de tipo eléctrica, de color o débil, no tenía
sentido. Su campo asociado, conocido como Campo Unificado,
mediaba su influencia a través de unos bosones de gran masa,
conocidos como X e Y,[7] cuyas interacciones acoplan a las partículas
más elementales que conocemos -quarks y leptones-,[8] y que son
responsables de nuevos fenómenos, como la hipotética
desintegración protónica. Y decimos hipotética porque la
probabilidad de que se produzca es ínfima, aunque teóricamente
posible. Al haber una sola fuerza fundamental, además de la
gravedad, a este brevísimo periodo[9] se le conoce como el de la Gran
Unificación.
Los bosones X e Y aparecerían de acuerdo a dos procesos físicos.[10]
Uno se concretaba en la transformación de las partículas de radiación
en pares de materia-antimateria X e Y, desapareciendo muy
rápidamente en un estallido de energética radiación de fotones al
interaccionar dichos pares entre sí. El segundo proceso correspondía
32
a la aparición de partículas virtuales en episodios de inestabilidad
cuántica, partículas que saltaban instantáneamente dentro y fuera de
la existencia cumpliendo los mandatos del principio de
incertidumbre. Si lo particularizamos para nuestros bosones X e Y
debemos pensar que se desintegrarían espontáneamente tras
brevísimos instantes debido a su gran masa, de unos 1015 GeV,[11]
creando quarks y antiquarks además de leptones y antileptones
siguiendo algunos de los modos de desintegración siguientes:[12]
X → quark up + quark up X → positrón+ + antiquark down
Y → positrón+ + antiquark up Y → quark down + quark up
Y → antiquark down + antineutrino electrónico
Se cree que estos bosones en sus ciclos de nacer-morir no cumplirían
una de las simetrías de las leyes físicas, en concreto la CP -de
carga/espacio-,[13] que es la que fija la igualdad entre la materia y la
antimateria en estos procesos. La consecuencia de ello es que con el
tiempo se iban generando más partículas elementales de materia que
de antimateria. Los modelos que estudian estos fenómenos nos dicen
que debido sólo a ello, y ya para todo lo que quedaba de futuro,
cuando la materia y la antimateria se habían definitivamente
aniquilado, la primera dominó a la segunda en una proporción de 1
entre 109.
Materia + antimateria ↔ fotón + fotón (antifotón)
La teoría de la Gran Unificación (GUT), que es con la que contamos
para suponer lo que pudo pasar en estos momentos, nos dice que el
anterior comadreo de patio de vecinos debió ser así hasta que la
energía promedio del Universo bajó, por expansión y consiguiente
enfriamiento, al nivel de 1015 GeV. Hago hincapié en que esto es lo
que suponemos, ya que nuestro límite experimental nos lo da el LHC
(Large Hadron Collider), que es el instrumento real con el que
podemos penetrar más en la profundidad de las altas energías. Con él
nos encontramos en la actualidad trabajando en el nivel de los
10 TeV,[14] muy alejados de las energías de un universo salido de las
dimensiones de Planck. Pero también la GUT nos dice que
aproximadamente en el nivel de 1015 GeV la interacción nuclear
33
fuerte dijo adiós a sus otras dos compañeras, la débil y la
electromagnética. Estas dos últimas seguirían unidas durante un
brevísimo tiempo hasta el momento en que el Universo se situó en un
nivel energético un poco superior a los 103GeV. Esto sucedería más
o menos en el tiempo 10-12 segundos desde el teórico inicio, momento
en el que separaron sus interacciones.[15] Y es alentador el comprobar
cómo los resultados de nuestros experimentos nos orientan hacia la
realidad de este hecho, como podemos ver en la siguiente figura, con
las tres fuerzas en una senda de aproximación a medida que aumenta
la energía. Así que quizás la predicción de la GUT es correcta y las
tres fuerzas fueron la misma antes de los últimos compases del
periodo de inflación exponencial, coincidiendo en un entorno
energético de 1015 GeV.
35
en la cuántica de campos, pero que conseguía ajustar mejor los
resultados de “su” expansión a lo que observamos en el universo.
36
2. Realmente la imagen más precisa que podemos asimilar al cuadro
que nos dibuje las ondas gravitatorias no es una foto sino una
pieza sinfónica. Estas ondas son un movimiento sinuoso del
tejido espacio-temporal al igual que el sonido es un movimiento
del medio que rellena el espacio. Las ondas gravitatorias no nos
van a proporcionar una nueva imagen visual del Universo, más
bien van a añadir a nuestras habilidades actuales a un nuevo
sentido, el oído, con el que “escuchar” al Universo.
3. Las ecuaciones de Einstein en el caso cosmológico nos dicen que
la aceleración de la expansión verifica esta ecuación.
https://cuentos-cuanticos.com/2012/07/18/universo-
inflacionario-parte-v-modelo-original-de-inflacion/
4. La fortaleza de la interacción gravitatoria es órdenes de magnitud
superior a la energía de expansión, y por tanto es la que prevalece
en los espacios próximos.
5. En la literatura de divulgación hay muchas alegorías que intentan
visualizar este fenómeno de la expansión del tejido del Universo.
Quizás una de las más afortunadas, al menos me lo parece a mí,
es la que usa como ejemplo un pastel de pasas que metes al horno:
cuando el pastel “sube” las pasas se separan, aunque ellas mismas
no cambian. El pastel es el espacio tiempo y las pasas, la
materia/energía.
6. Según la conocida ecuación de Einstein, E = mc2
7. Llamados colectivamente bosones X y que son unas partículas
elementales intermediadores de un tipo de fuerza predicha por
la teoría de gran unificación.
8. Ya veremos qué son, aunque para el curioso urgente recomiendo
la lectura de la serie del blog “El Tamiz”, “Esas maravillosasa
partículas”. [https://eltamiz.com/esas-maravillosas-particulas/]
9. Que va desde t-43 segundos a t-35 segundos a partir del inicio.
10. Que por otro lado era lo que les sucedía también al resto de
partículas existentes durante la época de la Gran Unificación.
11. Ya sabemos del capítulo anterior que el principio de
incertidumbre de Heisenberg exige emparejar una gran energía
con un efímero tiempo.
12. No están las correspondientes a los antibosones.
13. De Wikipedia: “La simetría CP se basa en la composición de
la simetría C y la simetría P. La simetría C o simetría de carga
37
afirma que las leyes de la física serían las mismas si se pudiesen
intercambiar las partículas con carga positiva con las de carga
negativa. La simetría P o simetría de paridad dice que las leyes
de la física permanecerían inalteradas bajo inversiones
especulares, es decir, el universo se comportaría igual que su
imagen en un espejo. La simetría CP es el producto de ambas.”
14. Un teraelectrónvoltio -TeV- es equivalente a 1012
electronvoltios. 10 TeV son, por lo tanto, solamente 104 GeV.
15. Hablaremos de todos estos procesos en capítulos posteriores.
16. Recordemos que son intermediarios de la interacción GUT, que
acaba de desaparecer.
17. Así llamamos también, por ejemplo, al proceso por el que por
enfriamiento el agua líquida pasa a ser agua sólida.
18. La constante cosmológica es ni más ni menos que una energía
interna.
38
04: Inflando el Universo I
40
Esta curva nos dice cómo la energía potencial V(Ф) del campo puede
tomar un valor u otro de acuerdo al valor que tome el campo. Este
valor Ф es indicativo del estado particular del propio campo, sin que
se precise el conocimiento de su distribución en el espacio, que puede
ser muy variable, o en el tiempo. En relación a este último, como
cosmológicamente se considera al universo homogéneo e isótropo,
habrá que convenir que la variación temporal del campo será la
misma en todos sus puntos.[5] Dado el necesario posicionamiento de
los sistemas físicos en la “arquitectura” de mínima energía,[6]
debemos convenir que el punto que defina el estado normal del
campo es el que representan los mínimos de las anteriores curvas. Un
campo cero en el primer caso, o un campo distinto de cero en el
segundo.
Ésta precisamente es la foto del carnet de identidad del campo que
creemos fue el responsable de la expansión primordial de nuestro
Universo. Una ecuación de cuarto grado, representada en la figura
siguiente, que correlaciona el valor del campo, en el eje horizontal,
con el valor de su potencial -energía- en el eje vertical. Además, en
distintos momentos relativos al tiempo -temperatura-[7]. Vamos a
llamar a este campo escalar el campo inflatón. Ya os podéis imaginar
el por qué.
Habíamos visto en el capítulo anterior que gracias a Einstein -y muy
a pesar de sus iniciales ideas personales-[8] sabemos explicar por qué
nuestro Universo se expande y que a lo largo de su historia lo pudo
hacer de una u otra manera dependiendo de la distribución de
energías, materias y presiones en su estructura espacio-temporal. En
los momentos inaugurales del universo, el campo inflatón definiría
esta distribución. Veamos cómo lo hacía. A medida que el universo
se expandía se iba enfriando, por lo que el potencial del campo
inflatón evolucionaba con el tiempo, de forma que su curva de estado
cambiaba, dibujando una especie de progresivo aleteo descendente
tal como hemos tratado de representar en la gráfica que sigue.
Durante un cierto tiempo -realmente menos que un suspiro-, antes de
que el Universo llegara a la temperatura crítica Tc, el campo inflatón
buscó lógicamente su posición de mínima energía, por lo que en todos
sus puntos y en todo momento ésta tomaba el valor E0. Es decir, el
41
campo inflatón estaba manteniendo en el sistema en expansión del
Universo una energía prácticamente constante, circunstancia que
hacía que, a pesar de que incrementara su volumen, la densidad de
energía se mantuviera constante en el tiempo -lo digo de forma muy
burda pero entendible-, al estar nuestro campo inflatón inyectando su
E0 a todo “metro cúbico” nuevo de Universo. Lo cual es sorprendente
si pensamos que lo normal es que, al expandirse un sistema aislado,
al aumentar su volumen sin que pase nada más, la densidad de energía
disminuye.
44
lo cual es una relación exponencial entre el factor de crecimiento y
el tiempo, cuya paternidad debemos achacar a que la presión negativa
del inflatón nos ha cambiado radicalmente el alma del proceso, al
haberse transmutado un signo menos por uno más. La existencia de
un campo inflatón estaba introduciendo una derivada que solucionaba
muchos de los problemas que los cosmólogos no entendían si la
expansión del universo hubiera sido menos potente, que era lo que a
fin de cuentas decía la teoría primitiva del Big Bang. Entre otras cosas
incomprensibles, la de el porqué de la homogeneidad de la
información que observamos en el Universo.
Todo lo anterior fue la base de la propuesta de la teoría inflacionaria
-conceptuada como la “antigua”- del físico Alan H. Guth. A medida
que el universo primigenio se expandía y enfriaba, se vio atrapado en
un estado inestable de falso vacío, que técnicamente se le conoce
como superenfriado. Para decirlo de forma sencilla, más enfriado de
lo que toca para el estado físico que se observa. Éste es el estado en
el que se puede encontrar a veces el agua en proceso de congelación,
que no acaba de solidificarse a pesar de estar a una temperatura muy
por debajo de 0ºC. Su estado es líquido pero altamente inestable, de
forma que cualquier alteración, golpe, movimiento o suciedad en su
interior, le provoca un colapso progresivo hacia el estado de
congelado. Las semillas iniciadoras se congelan, siguiéndolas el resto
del agua en fase líquida. Precisamente esto es lo que le debió pasar al
campo inflatón de Guth, que se “derrumbó” desde la posición de falso
vacío hacia el de verdadero vacío a través de un proceso de “tunelaje”
cuántico por el que se iban formando espontáneamente burbujas de
vacío verdadero en el mar de falso vacío del Universo, burbujas que
rápidamente se aquietaban mientras el resto del espacio-tiempo
seguía su expansión exponencial. Al final, todo llegaba a ser un
mundo de burbujas fusionadas en un espacio superexpandido. Se
suponía que al juntarse las burbujas, en el choque, se debían
“alumbrar” las partículas de radiación y de materia que hoy
observamos. Pero los cálculos decían que la expansión era tan rápida
que nunca llegaban a encontrarse las burbujas. La idea general de
Guth era buena, pero tampoco nos resolvía algún “detalle”. De forma
que tuvimos que buscar nuevas teorías que siguieran estando
enmarcadas dentro de la general de una expansión exponencial.
45
Aquí entró la intuición del físico teórico ruso-americano Andréi
Linde, que perfeccionó la idea inicial de la inflación propuesta por
Alan H. Guth. Su punto de partida sería la hipótesis de que hubiera
una proporcionalidad entre el campo escalar inflatón y su potencial,
su energía. Se trataba de una propuesta que no requería de efectos
gravitatorios cuánticos, de transiciones de fase, de un super-
enfriamiento o de un super-calentamiento inicial. Y a pesar de ello el
Universo, se expandía aún a mayor velocidad.
46
NOTAS CAPÍTULO 04:
[https://cuentos-cuanticos.com/2014/06/26/el-mecanismo-de-
higgs-para-estudiantes-de-bachillerat-i/]
[https://es.wikipedia.org/wiki/Ecuaci%C3%B3n_de_cuarto_gr
ado]
[https://es.wikipedia.org/wiki/Principio_de_energ%C3%ADa_
m%C3%ADnima]
[https://cuentos-cuanticos.com/2011/11/12/en-un-universo-
hecho-de-materia/]
47
[https://cuentos-cuanticos.com/2011/11/12/en-un-universo-
hecho-de-radiacion/]
48
05: Inflando el Universo II
49
Los primeros momentos del recién nacido Universo, que en el
intervalo temporal entre t-35 y t-32 segundos desde el inicio duplicó
su tamaño unas cien veces.
Antes de continuar, y para entender mejor el razonamiento de
Linde, vamos a introducir el concepto de rozamiento en el análisis
teórico del campo inflatón (y no sólo del inflatón). Los campos vibran
en ondas, cuyas ecuaciones son asimilables a las de los osciladores
armónicos (péndulo, muelle…)[1] de forma que, al igual que les pasa
a los osciladores, parece que los campos pueden verse afectados por
algo parecido al rozamiento. Se ve claramente si comparamos las
ecuaciones que definen ambos sistemas -al inicio dela página
siguiente-: en los dos aparece un sumando adicional que no existe en
las ecuaciones para un sistema sin rozamiento, sumando que es
proporcional en un caso -oscilador-, a la derivada primera de la
elongación, y en el segundo -campo cuántico-, a la derivada primera
del valor del campo, lo que permite ser intuido como que hay algo
que debe estar afectando a la velocidad de sus cambios.
50
Si nos atenemos a la ecuación relativa al campo -la segunda- podemos
imaginar al parámetro H como el “factor de rozamiento” del campo
al compararlo con el parámetro α, que sí es el factor de rozamiento
en el oscilador. A H se le conoce como la constante de Hubble[2] y
tiene que ver con las características de crecimiento dinámico del
tejido espacio-tiempo del universo. El concepto de “rozamiento”
enriqueció la propuesta inflacionaria de Linde, conocida como la
“nueva inflación”.
Como ya hemos dicho un poco más arriba, el punto de partida sería
la hipótesis de que hubiera un campo en el que se diera una
proporcionalidad entre su valor y su potencial, su energía. A mayor
campo mayor potencial. Esta idea la aplicó Linde a las ecuaciones de
la relatividad de Einstein, las cuales le permitieron deducir la
siguiente correlación entre la constante de Hubble y el valor del
campo:
51
para el campo, H es equivalente a un rozamiento- en su búsqueda de
mínimos energéticos[3].
Factor de crecimiento del universo a(t) = e Ht
Lo cual dibuja una expansión mucho más brutal en el tiempo que la
que se postulaba en la teoría de inflación de Guth. Un exponente
directo del tiempo frente a un exponente de la raíz cuadrada del
tiempo.
Ante esta circunstancia física, Linde se planteó la siguiente
posibilidad: ¿Y si eso es lo que realmente pasó en los inicios, cuando
el campo inflatón comenzaba su excursión desde el falso mínimo al
mínimo energético verdadero? Con ello había encontrado un posible
proceso -teórico- del que se deducía una gran inflación
experimentada por el Universo a partir del tiempo t=10-35 segundos,
con la que solucionaba algunas de las nieblas que aún dejaba la teoría
de Guth. De una forma muy intuitiva lo explica él mismo mediante el
siguiente diagrama:
53
Generación de fluctuaciones cuánticas. El borboteo es incesante
cambiando continuamente el paisaje de picos (Imagen, fair use)
(c) Fase de recalentamiento. Por último, al acabarse la inflación
exponencial, el inflatón se adentra en la zona de reposo, acunándose
alrededor del punto de mínima energía. En estos momentos creemos
que aparece una nueva generación de campos y el universo pasa de
un estado vacío, oscuro y frío -con relación a lo que venía después-,
a todo lo contrario. La inmensa energía potencial embalsada gracias
al campo inflatón durante la expansión se transforma en eso, en
cantidades ingentes de partículas de masas del orden de hasta 1014
GeV y radiación del mismo orden energético, alcanzando la
temperatura los 1029K. El universo había desembalsado su energía en
el momento 10-32 segundos contados desde el inicio, quedando sólo
el impulso inicial para seguir con el proceso expansivo, ahora a un
ritmo mucho menor. Y así hasta el día de hoy, que sigue en la labor.
De esta materia y energía generada inicialmente en la última fase de
recalentamiento hablaremos en un capítulo posterior, cuando
comentemos lo que se cree que pueda ser la actual distribución
cuantitativa de energía en el universo, en sus diversas
manifestaciones. Adelantamos una pincelada al respecto: una
pequeña parte está en forma de materia visible, cinco veces más en
forma de materia oscura y el resto, un 70%, en forma de esta energía
oscura que hace expandirse al tejido espacio-temporal del Universo.
Y no tenemos ni idea de lo que pueda ser esta energía oscura. Quizás
alguna propiedad interna del sistema en forma de presión negativa.
54
De igual calibre que la que provocó la gran inflación. Explico esto
último.
Necesitamos una fuerza impulsora. Y sabemos por lo que dice la
relatividad general que al menos hay una, la gravedad, resultado de
una deformación del espacio-tiempo, que provoca algo que se aprecia
como un impulso-deformación, en este caso atractivo. Según la teoría
relativista, esta deformación gravitatoria no sólo la produce la
energía, o su equivalente, la masa, sino también la presión. La presión
no sólo realiza una fuerza de empuje por ella misma, sino que también
puede deformar el espacio-tiempo generando un efecto gravitatorio.
Dos caras de una moneda.
Si consideramos a la presión en su forma más cotidiana e intuitiva -
la que nos afecta en nuestras experiencias- puede ser de tipo positivo,
cuando sentimos su empuje, o negativa, cuando sentimos una tensión
que atrae. Nos percatamos de este último tipo de presión, por
ejemplo, cuando mantenemos a un muelle estirado entre las dos
manos, ya que en su estructura material lleva implícita una energía de
“aproximación”.
Vista la presión desde esta perspectiva, se trata de una energía no
gravitacional que solamente mueven substancias en torno a un
espacio interior sin cambiar el espacio en sí. Sin embargo, según las
ecuaciones de la relatividad, la influencia que ejercen sobre la
gravedad curiosamente SÍ afecta al espacio interior,
sorprendentemente en sentido contrario a lo intuitivo. Así que la
presión positiva de un sistema genera sobre sus estructuras un efecto
gravitatorio de atracción, mientras que la tensión, o presión
negativa genera en sus estructuras una gravedad negativa o de
repulsión.
Ahí encontramos una causa de la fuerza expansiva. En una presión
negativa. Algunos prefieren llamarla “smooth tension” o “tensión
lisa”, por tratarse de una tensión de bajo valor que además está
distribuida uniformemente por todo el tejido del Universo. Ni más ni
menos que lo que decíamos de la presión negativa del campo inflatón
en el capítulo anterior. Una circunstancia física que nos permite
55
enlazar en la realidad del Universo la causa, una “smooth tension”,
con el efecto, su expansión.
Sí, esto es lo que se cree que sucedió entre t=10-35 segundos desde el
hipotético inicio del tiempo, fijado en el momento de la ficción
matemática que llamamos singularidad inicial, y el momento t=10-32
segundos. Pero lo más sorprendente fue el ritmo: cada 10-34 segundos
el Universo doblaba su escala, es decir, aproximadamente desde el
momento 10-35 segundos al 10-32 segundos dobló su tamaño ¡100
veces! ¡Un crecimiento superior a 1030 (~ 2100)! ¡Desde 10-20 veces el
tamaño de un protón hasta el tamaño de una naranja de 10
centímetros! ¡y todo en menos de 10-32 segundos![8] La luz tarda 1022
veces más en recorrer el tamaño de esta expansión. Y esto no va en
contra de que nada puede viajar más deprisa que el límite que impone
el valor de la velocidad de la luz en el vacío, 300.000 km/seg.
Simplemente lo que sucede es que ha dado de sí el tejido espacio-
temporal que creció a velocidades de vértigo.
Para completar, y antes de terminar el capítulo, creo que va a ser
ilustrativo el responder una última pregunta. La masa -energía- de
Planck, la del teórico micro-universo inicial, era de unos 10-5 gramos,
con una densidad de 1094 gramos por centímetro cúbico. Hoy en día
la energía total de la radiación observada en el Universo es
equivalente a 1053 gramos. ¿De dónde ha salido toda la energía -
materia y radiación- que vemos en el Universo?
Como desde la época de Planck esta radiación se ha enfriado 1032
veces, la energía que hoy vemos exigiría que en el momento de
Planck hubiera una de al menos 1085 gramos (1032x1053) ¡pero sólo
teníamos 10-5 gramos en nuestra burbuja inicial! La solución al
dilema “imposible” la obtenemos de la inflación exponencial, que
tendió el puente que enlaza ambas energías. Si en la escala de Planck
había una energía de 10-5 gramos y ésta es la que fija el valor del
campo escalar inflatón[9] que permaneció casi constante durante la
expansión exponencial de factor lineal 1030, es fácil pensar que a lo
largo de este proceso dicho campo inflatón embalsara energía hasta
el orden de 10-5 x 1030 x 1030 x 1030 = 1085 gramos, para
posteriormente y durante la fase del recalentamiento transformarla
en materia y radiación. ¿Casualidad en la coincidencia de los
56
números? Seguramente lo que pasó no fuera exactamente así, pero
me quedo con el matiz, y éste me dice que la teoría de la inflación es
bastante inteligente.
Hasta aquí con la teoría de la fase inflacionaria del Universo. En el
capítulo siguiente nos adentraremos en algunos aspectos
cosmológicos que la inflación nos ha ayudado a entender mejor. O
eso creemos.
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/fields-and-their-particles-with-math/]
[http://wwwmpa.mpa-
garching.mpg.de/lectures/Biermann_07/LindeLecturesMunich
1.pdf]
[http://apocalypse-2012.com/linde/linde1.html]
57
4. OJO, no pensemos esta curva como inmersa en un campo
gravitatorio, aquí no cae nada. Simplemente hay que imaginar
como si la parte alta fuera más “pegajosa”, realmente que tiene
más rozamiento, y por tanto inflatón permanece deslizando por
esa zona alta un buen tiempo.
5. En la parte alta de la curva.
6. Para entendernos con lo último, esto se traduce en que en
determinadas zonas del tejido espuma espacio-temporal de
nuestro universo en expansión quedaría una energía potencial
capaz de hacer renacer el proceso, creando a partir de las
fluctuaciones cuánticas de alto nivel un nuevo universo. En el
primer enlace de la nota 3 encontraréis la presentación resumen
de una conferencia de Linde sobre el tema.
7. Me atrevo a definir la dualidad “espacio-tiempo + inflatón”
también como un campo cuántico.
8. La alegoría de la naranja está extraída del libro de John Gribbin
“Biografía del Universo”, edición Drakontos Bolsillo 2011,
página 72, aunque allí habla de un pomelo. De la misma
publicación sale el dato del factor de inflación de 1030 aunque en
esto hay muchas opiniones, incluso 1050 como proponen Eric
Chaisson y Steve McMillan en su libro “Astronomy today”.
9. En el texto del capítulo anterior la habíamos concretado en el
parámetro E0, energía del campo inflatón en el punto de falso
vacío.
58
06: ¡Qué grande es la inflación!
t = 10-32 segundos
61
Densidad de energía (… un bonito problema)
En el capítulo anterior -cosa que como habéis visto remachamos en
éste- ya dijimos cómo la inflación fue la responsable de generar toda
la materia del Universo actual a partir de la nada del vacío, o quizás
a partir de la energía del volumen de Planck equivalente a unos 10-5
gramos.[6] El modo tan especial en que se movió el campo inflatón
durante la expansión fue embalsando en todos y cada uno de los
nuevos cuantos del tejido del Universo una energía que llamamos
“smooth tension” o “energía oscura” o “constante cosmológica”. A
fin de cuentas, distintos nombres para la energía que surgió del estado
de vacío en que se encontraba el tejido del espacio-tiempo. También
en los capítulos anteriores habíamos propuesto con gran imaginación
unas voluntariosas hipótesis con las que explicábamos cómo era
posible que a partir de la exigua energía de Planck apareciese la
enorme cantidad de energía que hoy observamos.
Pero la teoría exige explicaciones concretas. Y la verdad es que la
realidad es más cruda. El problema que tenemos es que todas las
veces que nos ponemos a hacer un cálculo teórico cuántico de la
densidad de la energía del vacío llegamos a la cifra de 1091gr/cm3,
mientras que la que medimos en la realidad observable es del orden
de 10-29 gr/cm3. Un “pequeño” problema a resolver de una magnitud
de 10120. En un rapto de optimismo, lo podemos ver más atemperado
si pensamos en masas, ya que la densidad del vacío es proporcional a
la cuarta potencia de una masa, lo que nos lleva a decir que la relación
entre la masa calculada y la observada es de 1030. Lo veamos como
lo veamos, la incongruencia es muy elevada. Y hoy por hoy no
tenemos ni idea del porqué.[7]
Planitud (… ahí parece que le hemos dado)
No todo son incógnitas. Observamos un Universo actual que se
comporta como si su geometría -los más técnicos dirían la métrica-
,[8] la que utilizamos en los cálculos que nos permite entenderlo, fuera
plana. Es decir, que en el espacio-tiempo observable se cumple el que
la suma de los tres ángulos de un triángulo es 180º. Como veremos
en un capítulo posterior, cuando hablemos de la radiación de fondo
de microondas emitida en el momento de la recombinación,[9] de la
62
propia estructura térmica de estas ondas se deduce una geometría
Euclidiana, es decir, plana.
Quizás podamos entender mejor lo de la planitud a través de otro
razonamiento. Sabemos, gracias a la fantástica intuición de Einstein
objetivada en la relatividad general, que la masa-energía-presión
genera una deformación del tejido espacio-temporal. Y creo que de
tanto oírlo ya nos imaginamos bastante bien cuando se trata de
concentraciones “puntuales” de masa, que al deformar el espacio
provocan gravedad y desviaciones en las trayectorias de otros cuerpos
con o sin masa. Pero si pensamos al nivel global de todo el Cosmos,
toda la energía-masa contenida provoca también una curvatura
general de todo el Universo.
63
-cerrada- y la de silla de montar -abierta-. La maravilla es que la cifra
de densidad crítica del Cosmos que exigen las ecuaciones de la
relatividad es precisamente la que estamos observando cuando
hacemos un inventario de lo que contienen las galaxias y los cúmulos.
Si, como hemos comentado, el Universo pudo partir, y así lo
consideramos en nuestras teorías, de una burbuja de la espuma
cuántica básica, con una curvatura próxima al infinito, es lícito el
preguntarse ¿cómo pudo llegar a ser plano? Pues gracias a que la
inflación exponencial que sufrió esa burbuja expandió su tejido de tal
manera que, en el momento actual, el pedacito de Universo que
podemos observar,[10] aunque sea en esencia curvo, para nosotros es
plano. Algo así como ver el mar desde la costa, que nos parece plano
aunque siga la curvatura de la Tierra. Y es que tal como parece que
runrunea la hormiguita de la figura de la página anterior… todo es
cuestión de perspectiva.
Homogeneidad e isotropía (… en este caso no era tan difícil el
problema)
Otra peculiaridad que observamos es que el Universo es homogéneo
e isótropo. Eso quiere decir que en lo macro tiene las mismas
características en todos sus puntos, por ejemplo su densidad, y que
además vemos lo mismo miremos hacia donde miremos desde
cualquier punto de observación. Sí, hay estrellas y galaxias, pero
perdidas en los inmensos vacíos cósmicos, aunque nos parecen masas
dignas de titanes. Si nos fijamos en el conjunto del Universo,
observamos que la temperatura es prácticamente igual en todos sus
puntos: 2,275K. Los fotones que nos vienen por la derecha
provenientes de hace 13.800 millones de años, la edad del Universo,
son de la misma longitud de onda -la misma energía, la misma
temperatura- que los fotones de hace 13.800 millones de años que nos
vienen por la izquierda, o por arriba, o por abajo. ¿Por qué la
temperatura es igual en todos los lados?
Nosotros sabemos que en un volumen cerrado que contiene gas, todas
las moléculas, a la larga, tendrán la misma temperatura, pues todas se
habrán influido con sus movimientos y choques, unas a otras, hasta
que las cantidades de movimiento de cada una y todas las moléculas
64
sean en promedio iguales. A esto se le llama estar en equilibrio
termodinámico térmico. Si en el Universo todos los puntos tienen una
temperatura igual es porque han tenido la oportunidad de estar en
algún momento juntos intercambiando y equilibrando sus energías.
La información que nos trae la luz emitida desde cualquier punto que
se encuentre en el borde del Universo salió de él hace unos 13.800
millones de años, justo su edad, que lógicamente es el tiempo que
tardó su luz en llegar a nosotros.[11] Pero si miramos a nuestra derecha
y luego a nuestra izquierda hacia el fondo profundo del Universo
observable, la información que nos llega proviene de dos puntos
separados el doble de lo que la luz pudo recorrer durante la edad del
Universo. La única explicación para que su temperatura sea igual es
que la distancia que los separa ahora en algún momento fue mucho
menor. Tuvieron que ser colindantes, para con posterioridad
separarse a una velocidad superior a la de la luz, la inflación
exponencial, y situarse en las posiciones donde hoy los vemos. Sin
inflación no se entendería la homogeneidad observada.
66
atemperadas por la inflación, fueron suficientes para crear un
potencial gravitatorio que ordenó a la materia con el patrón que
observamos hoy en la estructura de estrellas y galaxias. Cosa que ya
analizaremos, por supuesto, en capítulos posteriores.
¡Qué grande es la inflación! Cuántos interrogantes planteados en
nuestras observaciones adquieren un sentido bajo la luz de la
inflación. La idea nos funciona, nos cuadra con lo que vemos y
medimos. Pero no deja de ser una teoría escondida en la profundidad
de una fosa energética del calibre de la de las Marianas,[15] que hoy
por hoy nos es inalcanzable. Sin embargo no nos rendimos, porque
aún nos quedan recursos en el tintero. Una tenue esperanza viene a
través de las ondas gravitatorias.
67
de igual modo que las ondas electromagnéticas se crean por cargas
eléctricas en movimiento. Einstein predijo su existencia a través de
sus ecuaciones y hasta hace poco sólo disponíamos de evidencias
indirectas de ellas, como el decaimiento del periodo orbital observado
en un púlsar binario que no podía ser producido de otra manera que
al perder energía por la emisión de ondas gravitatorias. Pero en 2016
el experimento LIGO[16] nos dio una alegría al detectar unas ondas
gravitatorias de unos cientos de hercios producidas durante el choque
y posterior fusión de dos agujeros negros, hace ahora 1.400 millones
de años. En 2017 un nuevo gran paso: la detección de las ondas
gravitatorias resultante de la fusión de dos estrellas de neutrones a
130 millones de años luz de la Tierra. Con una GRAN ventaja
añadida… estos cataclismos cósmicos provocan una emisión de rayos
gama de alta energía que han podido ser detectados con nuestros
telescópios ópticos, lo que va a permitir analizar un evento gracias no
solo a su “imagen”, como hasta ahora, sino también gracias a su
“sonido”. Un nuevo sentido ha entrado en juego en la Cosmología.
Al inicio del capítulo ya explicamos cómo se pudo desarrollar el
cambio de estado que sufrió el Universo, aquel que llamamos
recalentamiento. El proceso de creación de materia debió ser tan
violento, con unas partículas chocando a velocidades relativistas, que
provocaría un gigantesco tren de ondas gravitatorias generadas por la
energía perdida en esos choques. Se supone que la energía que se
desvió hacia la creación de estas ondas pudo llegar a ser del orden de
una millonésima de la energía total en juego durante el
recalentamiento. Al igual que una piedra alborota la superficie del
estanque esculpiendo un tren de olas, la súbita aparición de tanta
materia alborotó el tejido espacio-temporal del Universo. Al ser la
gravedad una interacción tan débil -comparada con la fortaleza de las
otras tres fuerzas fundamentales conocidas-, las ondas del Big Bang
pudieron desacoplarse del plasma de partículas y energía,
propagándose por el espacio, literalmente arrugando el tejido
espacio-temporal, a velocidades cercanas a la de la luz. De forma que
en estos momentos de tranquila lectura aún lo deben estar haciendo,
llevando en sus lomos la información de lo que pasó durante el
recalentamiento.
68
Como ocurre en cualquier movimiento ondulatorio, las características
de las ondas dependen del sistema físico en donde se crean.
Teorizando con las propiedades físicas del Universo en el momento
en que se generó el mar de ondas gravitatorias, y a pesar que desde
aquel momento el universo se ha estirado en un factor de 1026, se ha
podido llegar a la conclusión de que hoy las podríamos observar con
un pico en el espectro de frecuencias entre docenas de kilohercios y
el gigahercio,[17] dependiendo de la escala de energía a la que ocurrió
el proceso de recalentamiento del universo posterior a la inflación. El
descubrimiento de dicho fondo abriría una nueva ventana al universo
primitivo. Estaríamos viendo cómo era el universo 10-32 segundos
después de haberse iniciado.[18]
Así que ahí hay que buscarlas, y además esperando ver un espectro
de distribución espacial caótico y turbulento, como corresponde a sus
orígenes. Algo muy distinto al suave espectro de las ondas de la
radiación de fondo de microondas emitidas mucho más tarde,
380.000 años tras el Big Bang. A pesar de la homogeneidad de estas
últimas, quizás también podamos encontrar en ellas pistas indirectas
de las ondas gravitatorias generadas durante el recalentamiento.
Hablaremos de la radiación de fondo de microondas en su
correspondiente momento cronológico. Acabamos ahora anunciando
el tema del próximo capítulo que dedicaremos a hablar de cosas que,
aunque teóricas, nos van a decir mucho acerca de los personajes que
habitaban aquellas “oscuras” edades.
69
2. Para saber un poco más acerca de cómo interactúan teóricamente
los campos cuánticos y cómo de estas interacciones surgen las
partículas, recomiendo leerse los magníficos artículos del blog
“Of particular significance”, de los que selecciono dos (enlaces
más abajo), relacionados con lo que hablamos en este momento
en nuestra serie.
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/fields-and-their-particles-with-math/7-particles-
are-quanta/]
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/fields-and-their-particles-with-math/8-how-
particles-and-fields-interact/]
[http://projects.ift.uam-csic.es/outreach/images/articles/ventana-
bellido.pdf]
6. Lo cual no quiere decir que sea lo mismo que una baja densidad
de energía: la de Planck es del orden de 1094 gr/cm3.
7. Para más detalles podéis ver este artículo:
[http://www.astronomia.net/cosmologia/lambda.htm]
70
[https://cuentos-cuanticos.com/2016/11/23/el-motor-de-
curvatura-de-alcubierre-viajes-hiper-rapidos-en-relatividad-
general/#more-9916]
71
escuchar el ruido que hacen dos agujeros negros al chocar.
Sorprendente ¿no?
[https://www.youtube.com/watch?v=LBWN8MYeSDk]
[https://www.investigacionyciencia.es/blogs/astronomia/17/post
s/ondas-gravitacionales-provenientes-de-la-gran-explosin-
10299]
72
07: De materia y antimateria.
Un poco de teoría I
73
en estos 10-12 segundos iniciales -invisibles para nosotros- pasaron, o
creemos que pasaron, muchas cosas realmente decisivas.
74
Pero a este modelo hay que darle de comer. Como datos de entrada,
las características de las partículas de la naturaleza, aquellas que en
cada momento se conocen y se han podido medir: sus masas, cargas,
spin… También se tiene en cuenta otro cuerpo de teorías que
describen de qué forma interaccionan las partículas entre ellas: la
fuerza nuclear fuerte -desarrollada por la cromodinámica cuántica-
, el electromagnetismo y la fuerza nuclear débil -desarrolladas en
su conjunto por la teoría electrodébil-. Observad cómo no entra en el
juego la cuarta fuerza de interacción, que es la gravedad. En los
cálculos también se tienen en cuenta una serie de simetrías que se
observan en el Universo y que obligan, en base a ellas, a que ciertos
parámetros no varíen -energía, momento, carga…- pasara lo que
pasara.
El resultado del Modelo Estándar confirma la existencia de
partículas/ondas que conocemos más comúnmente como materia o
radiación. Nos dice también que estos personajes son capaces de
interactuar a través de la mensajería realizada por los tres campos
cuánticos de fuerzas y del comportamiento que se induce cuando se
entrelazan los campos específicos de cada tipo de partícula. Podemos
imaginar el proceso al saber cómo aparecen las partículas/ondas.
Cualquier excitación energética en un punto de un campo se traduce
en una oscilación del mismo, una onda, que cuando lo hace en su
frecuencia fundamental conforma la partícula adherida a este campo.
Así, por ejemplo, la excitación del campo electrón engendra un
electrón, así como la del campo electromagnético genera un fotón.
Estas vibraciones de distintos campos se entrelazan de acuerdo a la
fuerza de enlace entre ellos. Y por eso el fotón interrelaciona con el
electrón. Éste es el proceso general que determina la física -y que se
observa en la química- de nuestro Universo. A partir del mismo
momento inicial de nuestra historia.
Aunque parece que todas estas explicaciones teóricas nos desvían del
camino propuesto, no queda más remedio que hablar de ello para una
mejor comprensión de lo que vamos a descubrir. Nos queda aún por
ver la nómina de los personajes más elementales que van a estar
presentes.
75
Con relación a los campos, hasta ahora sólo hemos hablado en otros
capítulos de un hipotético campo de unificación -el de la interacción
GUT-[3] con sus bosones X e Y, o de un no menos hipotético campo
inflatón[4] y su probable partícula, el inflatón. Pero, como hemos
comentado, cada campo tiene una partícula/onda asociada, así que
hablemos de las partículas.[5] El modelo estándar maneja dos tipos de
partículas: los hadrones y los bosones. Los primeros son los que van
a formar la materia que observamos -los quarks y sus subproductos,
como el protón o el neutrón, y los leptones, como el electrón o los
neutrinos- y en cuanto a los segundos, son los que van a mediar las
fuerzas fundamentales -el fotón, el gluón…-. Sin olvidarnos a
sus partenaires de la antimateria, las mismas partículas pero con
cargas opuestas. Es curioso cómo las partículas de materia conocidas,
los hadrones, se agrupan formando familias: tres de quarks y otras
tres de leptones, con unas masas situadas a tres niveles progresivos
de energía, sin que se descarte el que podamos encontrar más
partículas a energías superiores. Y en cada una de las familias hay
partículas de dos “sabores”. Por otro lado están los cuatro tipos de
bosones que intermedian en cada una de las fuerzas fundamentales, a
los que se les ha unido el higgs, de reciente puesta de largo en
sociedad.[6]
76
Las partículas y antipartículas pueden generarse a través de diversos
procesos, siendo posiblemente estos dos que cito a continuación los
más frecuentes: pueden aparecer espontáneamente del vacío
cuántico, o bien producirse a pares como resultado del choque de
fotones, preferentemente dos, con una energía conjunta por encima
de la equivalente a la masa de la partícula. A través de él la energía
de los dos fotones se transforma en materia, partícula y antipartícula,
según la ley einsteniana de E = mc2. La reacción contraria también es
posible y es lo que sucede si partícula y antipartícula no se alejan lo
suficiente tras su aparición -y todo depende de la velocidad de
expansión del Universo-: se aniquilan una a la otra dejando un rastro
de radiación. Estas reacciones, a millones, como la que se escribe más
abajo, parece que tendrían que producirse en equilibrio, debiendo
contabilizarse las mismas en un sentido como en el opuesto. Si uno
de ellos fuera claramente el dominante, sólo veríamos partículas que
habrían ganado a la radiación, o radiación que habría aniquilado a las
partículas. Y sin embargo, la energía que observamos en nuestro
universo es una mezcla de todo: mucha radiación, bastante menos
materia y una pizca infinitesimal de antimateria. Y esto último sí que
es raro, ya que o debería haber la misma materia que antimateria, o
no debería haber nada ni de una ni de otra.
Fotón + fotón ↔ partícula + antipartícula
Podríamos postular que esta diferencia viene “de fábrica” y que fuera
una característica natural del universo desde su nacimiento. Lo que
observamos hoy en día parece decirnos que hay una partícula de
antimateria por cada diez mil millones de partículas de materia, es
decir, que su relación de densidades es de 10-10.[7] Dado que cualquier
asimetría bariónica primordial habría sido diluída exponencialmente
durante la inflación, el dato observado hoy exige la existencia de una
diferencia durante la época GUT[8] del orden de 1069. Este número
parece impensable como dato que venga según lo que hemos
denominado ser “de fábrica”, por lo que se considera más probable
que inicialmente la diferencia entre materia y antimateria fuera nula
para con posterioridad, y a través de algún proceso físico hoy por hoy
desconocido, se generara el parámetro de asimetría tan pequeño que
se observa ahora. Por eso los físicos se las están ingeniando, sin
77
ningún resultado concreto convincente todavía, aunque de forma
esperanzadora, buscando procesos que hubieran podido producir la
diferencia materia-antimateria que hoy se observa.
“Y hasta aquí puedo leer”, tal como era una famosa muletilla de un
famoso concurso televisivo en el que participaba una calabaza.[9] En
el siguiente capítulo seguiremos en hablando del físico ruso Andréi
Sájarov, padre de la teoría que resulta ser la biblia para todos los que
estudian el misterio poblacional de la materia y la antimateria.
[https://eltamiz.com/relatividad-sin-formulas/]
[https://eltamiz.com/cuantica-sin-formulas/]
[http://eltamiz.com/esas-maravillosas-particulas/]
[https://arxiv.org/pdf/0802.2962v3.pdf]
8. Anterior a la inflación.
9. Evidentemente si sois españoles de una cierta edad lo habréis
adivinado: se trata del ínclito “Un, dos, tres” en el que se freía a
la pareja de participantes a recordar cosas triviales ¡Y con grandes
premios!
79
08: De materia y antimateria:
Un poco de teoría II
80
partículas. Sin embargo, entre todas estas interacciones alguna, o
algunas, tenían que violar este equilibrio. De todas formas, esta
violación debería ser muy ligera, debido al hecho de que las
interacciones que violan el número bariónico podrían intervenir en la
desintegración del protón. Y sabemos que el protón es superestable.[3]
Como consecuencia de lo anterior, el que en algún proceso se
incumplieran ligeramente las reglas de la simetría justifica la segunda
condición de Sájarov. En particular se refería a las reglas de la
simetría CP -de carga y de inversión especular espacial-: la C cambia
partículas por antipartículas y la P, coordenadas espaciales positivas
por negativas, que en el fondo supone poder cambiar el sentido del
espín de las partículas.[4] Si se cumplen ambas simetrías combinadas,
lo único que hacen las interacciones que modifican a los bariones es
cambiar elementos de “estantería” -unos bariones por otros-, aunque
siempre manteniendo el equilibrio entre unos y otros. Por ello hay
que postular una rotura de esta simetría para comprender la realidad
de una bariogénesis a favor de un bando de bariones.[5]
Sájarov aún pensó en una tercera condición: la bariogénesis se tuvo
que producir en algún momento en que el Universo no estuviera en
una situación de equilibrio térmico. Eso es así ya que, en equilibrio
térmico, el mismo número de partículas-antipartículas que se crean
por pares desaparecen por pares, manteniendo así sus familias y
proporciones. Para romper esta situación en algún momento se tiene
que abrir una válvula de escape de antimateria en la olla perpetua del
equilibrio térmico.
Dicho lo anterior había que remangarse, ponerse a trabajar y
encontrar evidencias teóricas o experimentales que demostraran que
estas tres condiciones se dan -mejor: se dieron- en algún momento.
Las observaciones nos han asegurado que en el Universo se dan
determinadas reacciones de aniquilación –por ejemplo, entre unas
partículas llamadas kaones-[6] en las que se viola la simetría CP. Pero
también se piensa que no explicarían la bariogénesis, ya que se tratan
de reacciones muy débiles. Desde la física del Modelo Estándar, o
también del modelo de la Supersimetría o de las teorías de cuerdas,
se apuntan otras posibilidades que aún están muy lejos de ser
comprobadas.[7]
81
Como puede aclarar nuestras ideas sobre el tema, paso a exponer
brevemente uno de los casos expuestos por estas físicas-matemáticas
basado en la teoría de la gran unificación (GUT), que postula la
existencia a altas energías -y por tanto en el inicio de la vida del
universo- de bosones muy masivos nombrados como bosones X e
Y.[8] Estos bosones se desintegran a altas temperaturas en bariones y
leptones, según las ecuaciones que siguen,
X → (51% de las desintegraciones) quark up + quark up
X → (49% de las desintegraciones) positron + + antiq down
antiX → (49% de las desintegraciones) antiq up + antiq up
antiX → (51% de las desintegraciones) electron- + quark down
pero al hacerlo así dejan más quarks que antiquarks. En cada una de
las parejas de desintegraciones (la primera de materia y la segunda de
antimateria) se producen quarks de distintos tipos según el porcentaje
indicado. Del análisis de las anteriores parejas de reacciones podemos
deducir que tras cien desintegraciones de ambas, eliminando la
materia y la antimateria resultante homóloga, que se aniquilarán
mutuamente, nos va a quedar (contando sólo las partículas
bariónicas):
2 [quark up + quark up] + 2 quark down
Como los protones están formados por dos quark up y un quark down y
a la vista del resultado anterior, podemos asegurar que por cada cien
interacciones de un tipo más cien interacciones del otro tendremos
como resultante a dos protones de materia que no tienen compañeros
de antimateria. En las ideas de Sájarov podemos encontrar entonces
una posible explicación de porqué observamos exclusivamente
materia y no antimateria, y por qué hay tanta divergencia numérica
entre la materia y la radiación.
Ahora ya podemos seguir tranquilos nuestra historia sabiendo -
suposición absolutamente teórica- que el trabajo de los bosones X es
el que ha modelado el universo. En resumen: los bosones X en su
desintegración no cumplían al pie de la letra la simetría CP, de forma
82
que generaban un escasísimo porcentaje más de materia que de
antimateria. Pero ello fue trascendente mucho más tarde gracias al
impulso de la inflación, separando a las parejas materia-antimateria y
restándoles energía cinética con el enfriamiento, de forma que se iban
encontrando muy poco a poco, aniquilándose, dejando como balance
un pequeño poso dominante de partículas de materia, la base de lo
que luego será la que hoy percibimos y la que intuimos: materia
luminosa como contrapuesta a materia oscura.
85
materia más elemental, sino también para poder permitir actuar a las
fuerzas fundamentales. Primero, para que los correspondientes
bosones intermediadores salidos del vacío pudieran condensarse el
tiempo suficiente -lo que conocemos como el tiempo característico
de las interacciones- como para que se produzca la intermediación.
Segundo, para que las partículas de materia puedan aproximarse de
forma que se coloquen dentro de la distancia de alcance de la fuerza,
lo cual es muy importante para las de muy corto alcance como son
las dos nucleares.[9]
En el siguiente esquema quedan representadas las partículas más
fundamentales del Modelo Estándar, con sus masas en unidades de la
energía equivalente, y ordenadas de abajo a arriba desde la de menor
masa a la de mayor. Nos va a servir de referencia en la continuación
del relato.
Estamos ahora en condiciones como para que al leer los capítulos que
siguen no nos sorprenda lo que vamos a ver a lo largo de la historia
que iremos despiezando con el paso del tiempo… cómo al ir
cambiando las condiciones ambientales medias del Universo van
apareciendo progresivamente nuevas posibilidades de equilibrios,
86
tras los que se van a ir consolidando nuevas partículas y se va a ir
posibilitando la acción de las fuerzas que conforman nuestra más
próxima realidad.
[https://es.wikipedia.org/wiki/Andr%C3%A9i_S%C3%A1jarov]
[https://cuentos-cuanticos.com/2016/02/11/emmy-noether-la-
mujer-que-nos-enseno-a-repensar-la-fisica-womeninsteam/]
[https://cuentos-cuanticos.com/2011/10/11/gauge-esto-gauge-lo-
otro-%C2%BFque-es-una-teoria-gauge/]
[https://cuentos-cuanticos.com/2011/07/18/simetria_cpt/]
87
embargo se trata del término genérico utilizado para referirse a los
hipotéticos procesos físicos que produjeron una asimetría entre
bariones y anti-bariones durante los primeros instantes de la
creación del universo.
6. Hala, a leerse la correspondiente entrada de Pedro en el blog “El
Tamiz”.
[http://eltamiz.com/2007/08/26/esas-maravillosas-particulas-el-
kaon/]
7. Para los más curiosos propongo este enlace al blog “Naukas” que
amplía el tema:
[http://francis.naukas.com/2010/07/04/la-asimetria-entre-materia-
y-antimateria/]
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/the-structure-of-matter/protons-and-neutrons/]
[https://profmattstrassler.com/articles-and-
posts/largehadroncolliderfaq/whats-a-proton-anyway/]
[https://profmattstrassler.com/articles-and-
posts/largehadroncolliderfaq/whats-a-proton-anyway/checking-
whats-inside-a-proton/]
88
09: Una sopa con mucha radiación
93
Recordemos que el Cosmos estaba en expansión, circunstancia que
hacía que la radiación existente se fuera difuminando en un volumen
cada vez mayor y además sus partículas -los fotones-, debido a la
propia expansión del tejido soporte iban también “estirando” la
longitud de sus ondas. Lo cual implicaba que las partículas de la
radiación eran cada vez menos energéticas y, en consecuencia, el
Universo más frío.[7] A las reacciones de aniquilación materia-
antimateria[8] la circunstancia puede que le fuera completamente
indiferente y seguirían generando incansables nuevas partículas de
radiación. Sin embargo, si miramos en el otro sentido de la reacción
-la de creación de pares materia-antimateria por choque de radiación-
, tenemos que pensar que se iría progresivamente ralentizando, al ser
los fotones cada vez menos energéticos.[9] Por ello, el equilibrio
térmico se iba progresivamente deshaciendo a favor de los fotones.
En resumen, se estaba viviendo una progresiva marcha hacia una
situación de más fotones y comparativamente menos partículas de
materia. Esto lo podemos observar a día de hoy, de forma que lo que
realmente contabilizamos en el Cosmos es que hay mil millones de
fotones por cada protón-neutrón, que además son prácticamente
todos de materia salvo alguno de antimateria.
¿Sólo alguno de antimateria? Ya sabemos por los dos capítulos
anteriores de esta serie, el 7 y el 8, que la falta de simetría en la
desintegración de las partículas X e Y cuando el Universo tenía
temperaturas muy altas produjo el desequilibrio entra bariones y
antibariones, de forma que por cada 109 parejas de “bariones” y de
“antibariones” -y 109 fotones-, tenía que haber UN “barión” más.
Pero ¿por qué aún detectamos antimateria, poca, pero alguna? ¿No
tendría que haber desaparecido en la aniquilación mutua entre
aquellas 109 parejas? La explicación es fácil de imaginar, y nos la da
la expansión acelerada, que hizo que alguna de las parejas materia-
antimateria que se fueron creando se separaran con tal rapidez que les
fue imposible reencontrarse y contrarrestarse.[10] Todo ello está
inmerso en el núcleo conceptual de la bariogénesis, es decir, el
proceso de nacimiento de los “bariones” que observamos. En el
intervalo temporal que se describe en este capítulo afectaba a las
partículas elementales quarks. Con posterioridad lo hará con los
94
auténticos bariones -protones y neutrones- compuestos por aquellos
quarks que sobrevivieron.
Con esto cerramos un intenso periodo de la vida de nuestro Universo,
que fue extremadamente corto, entre el tiempo 10-32 segundos a 10-12
segundos desde su inicio. Este final del periodo va a coincidir con el
momento en que la fuerza electrodébil rompa su simetría -hablaremos
de ello en el siguiente capítulo- y comiencen a actuar como fuerzas
diferenciadas el electromagnetismo y la fuerza nuclear débil. Es el
momento energético en que pudo condensarse ya el bosón de Higgs,
que hoy sabemos que existe gracias a que lo hemos detectado a través
de los experimentos en el LHC. Aquella naranja de unos 10
centímetros de diámetro del inicio habrá crecido en un factor de 1011.
En su interior, un plasma de fermiones elementales del tipo quark,
electrón, neutrino, muon y tauón, así como bosones del tipo gluón o
el específico del campo electrodébil -en aquellas condiciones el fotón
y los bosones W y Z debían ser indistinguibles, los tres sin masa y
moviéndose a la velocidad de la luz ¡la radiación del momento!-.
Todas esas partículas con sus correspondientes antipartículas, que
iban siendo cada vez más residuales. Y aunque no sabemos nada de
ellas, tenían que estar también presentes las partículas que teorizamos
como las que conforman la materia oscura, tales como los axiones o
los neutralinos.
Vamos a acabar este capítulo para continuar en el siguiente con la
historia de un Universo que era un mundo de plasma dominado por
una energética y abundante radiación, que no dejaba tranquilos ni a
los campos de materia ni a los de fuerzas. Un mundo en continua
expansión y, por tanto, enfriamiento, con un comportamiento físico
semejante a un mundo de gas opaco, en donde la “luz” -la radiación-
no era libre y en donde las perturbaciones se comportaban como
ondas sonoras, aunque con frecuencias que quizás ningún hombre,
si allí hubiera podido introducir un micrófono, hubiera sido capaz de
percibir con su oído y su cerebro. Pero las había, ondas sonoras
inherentes a los flujos de compresión-expansión que experimentaba
el plasma. Físicamente un fenómeno idéntico al que experimentamos
cuando un foco sonoro emisor produce ondas en el medio físico, el
gas atmosférico, que se transmiten por él hasta llegar a nuestros oídos
95
receptores. Aunque me estoy adelantando… dejemos esto como un
anuncio de un tema que desarrollaremos en otro capítulo, cuando
estemos sobrepasando la frontera de los 380.000 años. Nos leemos.
[http://eltamiz.com/esas-maravillosas-particulas/]
[https://cuentos-cuanticos.com/2011/09/01/supercosas/]
[http://francis.naukas.com/2012/12/29/el-modelo-estandar-la-
supersimetria-y-la-supergravedad/]
96
7. La energía implícita en una onda es directamente proporcional a
su frecuencia y, en consonancia, inversamente proporcional a su
longitud de onda.
8. Fotón + fotón ↔ partícula + antipartícula
9. Como sabemos, la energía va decayendo por debajo de la masa de
las posibles partículas, masa que es equivalente a energía según
la famosa igualdad e=mc2.
10. Hay otras teorías que conjeturan la hipótesis de que en el
Universo, y fuera del observable por nosotros, podría encontrarse
una “burbuja universo” de antimateria, el complementario al
nuestro.
97
10: La liberación de la fuerza débil I
¡Esta figura me suena!, dirás. Y tienes toda la razón. Viste una casi
igual en el capítulo cuarto, en el que hablábamos del campo
inflatón. La diferencia está en que ahora en vez de leer inflatón
estás leyendo Higgs. Si, la base teórica de los dos funciona igual.
100
El campo de Higgs permeaba desde siempre toda la extensión del
espacio-tiempo. A medida que iba descendiendo la temperatura del
Cosmos, la curva del campo Higgs, la que dibuja la correlación entre
el propio valor del campo y el de su energía, atemperaba su forma
dibujando con el transcurrir del tiempo una especie de “aleteo”, como
hemos intentado dibujar en la superposición de instantáneas fijas que
es la figura anterior, en donde la flecha roja es la del tiempo. Y esto
era lo mismo en todos y cada uno de los puntos del homogéneo
Universo. A altas temperaturas, la curva identitaria del campo se
ajustaba bastante bien a una parábola. En estas condiciones el campo
de Higgs se habría situado en el fondo de mínima energía de esta
parábola, en donde se encontraba en una posición relativamente
precaria: con el paso del tiempo, estar en este mínimo energético, E0,
no podía ser una situación muy estable, ya que este valor no era el
que marcaba la referencia de energía cero para el resto del Universo,
pues había niveles de energía menores. Al ir bajando aún más la
temperatura, la curva característica se fue modificando hacia otro tipo
de curvas de cuarto grado, deslizando su contorno de forma que, a
medida que transcurría el tiempo, se posibilitaban nuevos puntos de
mínima energía, cada vez menor. Todo ello hacía que mantenerse en
el punto E0 de energía no-cero, fuera cada vez más difícil para el
campo. En ese punto (0, E0) el campo de Higgs se encontraba, a
medida que transcurría la expansión del Universo, en una situación
que progresivamente era más inestable. Paulatinamente iba creciendo
el termodinámico “impulso”[5] a colocar al campo en estos nuevos
mínimos de energía, fuera del pozo del falso vacío en el que se había
instalado desde los inicios. Como le había sucedido al campo inflatón
hacía muchos electronvoltios, aunque realmente muy, muy poco
tiempo, nuestro campo de Higgs inició en todos los puntos del
Universo homogéneo e isotrópico una excursión hacia el verdadero
mínimo de energía. Hasta que llegó al nuevo estado de equilibrio en
un vacío real de energía nula con un valor de campo H0. En todos los
puntos del espacio-tiempo dejó de tener un valor promedio cero para
establecerse en todos los puntos del espacio-tiempo un valor H0.
¿Por qué pasan este tipo de cosas? Voy a intentar explicarlo en los
párrafos que vienen, una digresión teórica referente a lo que hemos
dicho que pasó con el campo de Higgs. Una explicación muy simple,
101
espantosamente simple aunque creo que clara, de por qué creemos
que sucede esta dinámica en algún tipo de campo.[6]
Aunque ahora que lo pienso… llegado a este punto del escrito
observo que lo que acabo de prometer me va a meter en un tinglado
un poco largo, por lo que será fácil que se alargue el capítulo más de
lo que parece juicioso y soportable… ¡Una vez más! Así que como
creo que éste puede ser un buen momento -o al menos el menos malo-
para la interrupción del transcurso de la argumentación, propongo
hacer un parada técnica para recuperar el hilo en el próximo capítulo.
Allí continuaré con esa “espantosamente simple” explicación. Hasta
entonces.
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/fields-and-their-particles-with-math/8-how-
particles-and-fields-interact/]
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/how-the-higgs-field-works-with-math/1-the-
basic-idea/]
103
11: La liberación de la fuerza débil II
105
Por ejemplo, ésta es la que rige la vida de un quark sin
masa → d2Q / dt2 – c2 d2Q / dx2 = – K2 fQ(Q,H) (no tiene el
sumando de K1)
y ésta es la que rige la vida de Higgs con masa → d2H/ dt2 –
c2 d2H/ dx2 = – [K'1 H + K'2 fH(Q,H)]
Lo curioso es que en algún caso particular, cuando el campo del tipo
de Higgs está en la situación en la que ha llegado a un vacío verdadero
adquiriendo un valor H0, la ecuación anterior correspondiente al
quark Q (que debemos generalizar a la mayoría de las partículas
elementales del modelo estándar), en los puntos donde se produce
una interrelación entre este campo de Higgs H y el campo Q, se
transforma adoptando esta nueva expresión:
d2Q / dt2 – c2 d2Q / dx2 = – [K'1 H02] Q = – K1 Q
Ha aparecido como de la nada un nuevo término lineal en Q que
he resaltado en rojo, un nuevo K1 que, como hemos dicho más arriba,
tiene que ver con la masa de la partícula fundamental del campo Q.
No, no es magia: La interrelación de excitaciones,
ondas/partículas, entre los campos Q y H ha generado masa en el
campo Q. Simplemente por curiosidad, diremos que la masa que
aparece de “ex novo” es la siguiente:
mQ = (K’1)1/2 [h/2πc2] H0
Según la fórmula anterior de la masa de las partículas más
elementales, ésa depende de la fortaleza de la interacción del campo
Higgs con los correspondientes campos, K’1, y del valor promedio
del campo Higgs en el universo, H0. De nada más. Lo que nos dice
que la masa inducida depende del campo de Higgs y no de su
partícula: si el campo de Higgs tuviera un nivel base de su potencial
igual a cero, no induciría ninguna masa en las partículas de los otros
campos. Y, sin embargo, el propio campo de Higgs seguiría teniendo
sus partículas, que no serían más que las mínimas ondas vibratorias,
sus cuantos de energía, posibles del mismo. Hay que añadir que el
campo de Higgs no debe ser el único responsable de generar masa en
las partículas elementales del Universo, incluso la propia masa de su
partícula. Creemos que debe haber otros mecanismos en el Cosmos
106
que también inducen en algunas partículas la característica que
llamamos “masa”, su habilidad para ejercer resistencia al
movimiento, aunque realmente no sabemos lo que puedan ser.
107
generando en él un cuanto propio de energía, la onda-partícula
característica del campo verde. En nuestro ejemplo un quark.
Dicho lo anterior, pura teoría, volvamos al escenario. En el Universo
todo seguía más o menos según los viejos parámetros. Había energía
suficiente para que ahora ya, roto el campo electrodébil, el recién
estrenado y libre campo electromagnético siguiera generando
perturbaciones en el resto de campos de partículas: ya sabemos que
por choque de fotones lo suficientemente energéticos se van
generando nuevas partículas,[4] cuyas masas serán iguales o menores
que la suma de energías de los fotones madre.
Podemos seguir en la figura siguiente -ya conocida por nosotros- el
elenco de personajes que habitaban el teatro del Cosmos. En ella se
recoge el conjunto de partículas que postula el Modelo Estándar, cada
una con su energía de “condensación”, es decir, su masa en reposo en
GeV.[5] Si el nivel de energía promedio en el Universo está por
encima de este valor, aún se genera la partícula a partir del choque de
los fotones. Si está por debajo va disminuyendo este proceso,
mientras que su contrapartida negativa, que supone la aniquilación
partícula-antipartícula, hace que su población abandone el viejo
equilibrio térmico. Podemos decir que las partículas que a pesar de
todo permanecen han alcanzado una posición de madurez y
estabilidad en la que estarán sujetas a otro tipo de interacciones.
108
Hagamos una vez más la foto fija del momento. Cualquiera
comprendido entre 10-12 y 10-6 segundos tras el Big Bang. La sopa de
partículas estaba constituida por las tres familias de los quarks,
electrones y neutrinos, los bosones de los cuatro campos de fuerzas
más el de Higgs y las partículas hoy por hoy desconocidas que
formarán en un futuro la materia bariónica oscura. La energía de
“condensación” de estas últimas, según las teorías de la supersimetría
SUSY que las conoce con el nombre genérico de neutralinos, pudiera
estar en el entorno de 30 a 5.000 GeV -la apuesta más cotizada es la
de los 200 GeV-, justo en el rango del periodo que estamos
analizando en este capítulo.
Todo ello constituía un plasma denso que se conoce con el nombre
del plasma quark-gluón, simplificación del momento y esencia de
lo que iba a venir. Este plasma estaba dibujado por una textura de
“viruelas”, reminiscencia de las atemperadas fluctuaciones cuánticas
que se produjeron en los momentos más álgidos de la expansión
inflacionaria. Este plasma también estaba manteniendo la dinámica
de las ondas sonoras que “arrugaban” su esencia, la densidad de
partículas y energía, al igual que un instrumento musical al emitir una
nota “arruga” el aire en la densidad de su mezcla de gases
produciendo una onda sonora. Sin olvidarnos del hecho de la
existencia de las ondas gravitatorias predichas por Einstein,[6]
consecuencia de las tremendas variaciones de masa generadas al
culminar la inflación, y que también seguían produciendo el
arrugamiento del tejido espacio-temporal en el mundo del plasma
quark-gluón.
De la misma manera, en este escenario estaba presente el alma de la
función, las fuerzas fundamentales que ponen en juego la dinámica
de la materia y la radiación. Todas las partículas existentes quedaban
al alcance de cualquier campo de fuerzas existente, aunque quizás en
aquellos momentos el nivel térmico del Universo sólo les permitía ser
eficaces por debajo de una cierta temperatura, que es lo mismo que
por debajo de una cierta energía cinética de la partícula.
La gravedad, vieja actriz. Su presencia se manifestó desde el
verdadero principio del Big Bang. Y aunque las partículas acababan
de dejar de ser casi pura radiación sin masa, no cabe duda de que su
109
energía de masa y cinética deformarían levemente el tejido espacio-
temporal, lo cual inducía en ellas sutiles cambios de trayectoria.
El electromagnetismo también estaba presente. En esta época los
fotones comenzaron a ser libres, por lo que ya podían ejercer su
mediación entre las cargas eléctricas. Así que en el momento en que
las partículas cargadas frenen sus velocidades, y de eso se encargará
la incansable expansión, tendrán ya la oportunidad de unirlas: allí
estaban en la brecha quarks y electrones. Aunque aún tendrán que
esperar.
La fuerza nuclear fuerte era independiente desde hacía “mucho”.
Pero ella sabe actuar sobre quarks y gluones. Por fin los primeros se
habían “condensado” lo que les daba una cierta estabilidad temporal,
lo suficientemente prolongada como para posibilitar las
interrelaciones. Pero para ver los efectos de la fuerza nuclear fuerte
deberemos esperar hasta un nivel de energía del orden del GeV ¡y
estamos a 103 GeV!
Por último, la fuerza nuclear débil también estaba presente: Los
bosones W y Z, ya con masa, podían intermediar en las reacciones de
desintegración β por la que los quarks cambian su “color”. Eso iba a
permitir, entre otras cosas, el transmutar protones por neutrones y
viceversa. Veréis la importancia de ello dentro de unos capítulos.
Aunque esto va a ser el siguiente paso de nuestra historia. Cosa que
veremos en el próximo capítulo.
110
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/fields-and-their-particles-with-math/8-how-
particles-and-fields-interact/]
[https://profmattstrassler.com/articles-and-posts/particle-
physics-basics/how-the-higgs-field-works-with-math/1-the-
basic-idea/]
111
12: Los hadrones
a 1 segundo desde el inicio
Recordamos del capítulo anterior cómo en el tiempo t=10-6 segundos
después de su inicio el Universo estaba formado por un medio al que
llamamos plasma quark-gluón, aunque realmente había allí más
partículas compañeras de viaje. Este plasma comienza a ser familiar
para los físicos, puesto que ya ha sido recreado en experimentos
realizados en algún acelerador de partículas como el del CERN.[1] Lo
curioso del caso es que estos experimentos nos dicen que, más que a
un gas, el plasma quark-gluón se asemeja a un líquido apenas viscoso,
a pesar de que la teoría nos dice que la densidad es tremenda, puesto
que corresponde a 1017 veces la del agua. En este momento de la vida
del Universo se ha alcanzado un nivel energético que se encuentra en
el entorno de 1 GeV, lo que equivale a una temperatura de crucero de
1013K.
113
En estos momentos la fuerza nuclear fuerte se sintió con aptitudes
para comenzar a ser protagonista principal, lo que llevó a cabo con la
ayuda de su excitación fundamental, el gluón,[4] que comenzó a
“pegar” quarks, principalmente los ups y downs, ya que los otros
cuatro, más masivos ellos, por los motivos que hemos comentado ya
en otros capítulos,[5] desaparecían en un tiempo menor del que
necesita el gluón para hacerlos interactuar, es decir, se esfumaban en
su incertidumbre cuántica antes de poder echarles el lazo. La
actividad de la fuerza nuclear fuerte fue muy intensa, de forma que
creemos que a los 10-3 segundos casi no quedaban ya quarks libres:
estaban confinados en neutrones y protones. En la figura siguiente se
puede ver cómo cada uno de ellos está formado por un trío particular
de quarks y tres gluones que les hacen de pegamento. Hay que decir
aquí que los protones y neutrones no presentan un aspecto tan plácido
como podría deducirse de la figura. Tienen una masa del orden de 1
GeV y, a vista de pájaro, están formados por tres quarks de 4.10-3
GeV cada uno y por tres gluones sin masa. Evidentemente, no
cuadran los números de la cantidad de masa en juego. El truco está
en que en estos pequeños espacios del mundo cuántico, los dominios
espaciales internos de un protón o de un neutrón, se generan y
desaparecen también millones de partículas virtuales con velocidades
relativistas, que aportan la energía necesaria para cuadrar el balance
másico de protones y neutrones hasta el experimentable de 1 GeV.
114
El nivel energético medio del momento, 1 GeV, era similar a la masa
en reposo de estas partículas compuestas, por lo que la radiación
existente apenas los desestabilizaría, pues no tenía suficiente energía
como para “romper” sus estructuras. Eso sí, los quarks y antiquarks
existentes habían creado hadrones y antihadrones, los cuales
rápidamente degenerarían en reacciones de aniquilación de sus
quarks y sus antiquarks que dejaron multitud de otras partículas
elementales.[6] Al final, lógicamente, dominaría la materia de
hadrones sobre la antimateria de hadrones.
A pesar de que ya debían ser muy pocos los quarks libres -
prácticamente habían desaparecido a los 10-3 segundos gracias a este
proceso de confinamiento en hadrones de materia- sí que continuaban
existiendo en el plasma una gran multitud de electrones y neutrinos.
Podemos contabilizar la población de ambos como uno por cada
partícula de radiación. Los electrones, al interactuar con el campo
electromagnético, convivían con la radiación en equilibrio térmico:
al no haberse llegado aún a su temperatura de condensación -sus
masas en reposo son muy pequeñas- hay que pensar que los procesos
de creación a partir de la radiación existente, y los de destrucción
entre sus pares partícula-antipartícula, se producirían sin trabas,
manteniendo las poblaciones estables. Sin embargo, los neutrinos,
que no interactúan con la radiación, ni se generarían por choque entre
fotones ni estos se producirían cuando se aniquilaban neutrino y
antineutrino, que por otra parte se cree que son la misma partícula.
Las dos reacciones que siguen serían algunas de las que en aquellos
momentos interrelacionarían a las tres partículas elementales, fotón,
neutrino y electrón.
Fotón(es) ↔ p+ + e- (positrón+ + electrón-)
En el sentido de izquierda a derecha esta reacción iría decayendo en
número a medida que la energía se iba aproximando en su
enfriamiento hacia los 0,5 MeV, equivalente energético a las masas
de electrón y el positrón, nivel a partir del cual ya era muy difícil crear
este tipo de partículas a partir de la radiación. En el sentido derecha
a izquierda duraría hasta que materia y antimateria se hubieran
anulado mutuamente.[7] Aunque esto último sucedió más o menos a
los 10 segundos de vida del Universo.
115
En las aniquilaciones de electrones no sólo se creaban nuevos
fotones, sino también neutrinos, gracias a la fuerza nuclear débil,
según el siguiente equilibrio:
p+ + e- ↔ neutrinoe + antineutrinoe
Esta última reacción, que habría contribuido desde la salida de la
inflación exponencial a rellenar el Universo con los esquivos
neutrinos, era muy efectiva por encima del MeV… ¡y en esta fase el
valor de la energía promedio estaba situada por encima de este límite
en un factor de diez a mil veces! Aunque tenemos que pensar que
estaría perdiendo progresivamente mucha eficacia y de hecho
desaparecerá más o menos en la frontera del segundo -1 MeV- tras el
inicio del Universo.
Todo parecía indicar que se estaba a medio camino hacia el momento
de la culminación de lo que se había pergeñado durante la época de
la bariogénesis, con el triunfo final de la materia frente a la
antimateria y el nuevo equilibrio de la balanza de partículas, que iba
aproximándose al ratio de un barión superviviente por cada 109
fotones. Los electrones, como hemos dicho, aún seguían en equilibrio
térmico con la radiación y habría que esperar un poco más para que
estas partículas quedaran sólo en su forma de materia -como contrario
a su antimateria-. Cuando se llegue a ese momento volveremos a
contabilizar un electrón por cada protón por aquello de la neutralidad
de carga en el Universo. Es decir, un protón y un electrón por cada
109 fotones -y neutrinos-. Pero eso será más tarde.
Ahora ya sabemos que en la fase en que nos encontramos el plasma
quark-gluón inicial se había transformado sustancialmente. Las
cuatro fuerzas fundamentales estaban ya presentes de forma
independiente, actuando en un plasma que estaba formado
principalmente por protones y neutrones, electrones y una intensa
radiación de fotones y neutrinos. Una vez más adopto la licencia de
llamar a los neutrinos radiación, acepción que se aplica normalmente
a los fotones. Pero su poca masa, su velocidad relativista de
desplazamiento por el Universo y su participación clave en las
dispersiones de partículas en las que interviene la fuerza débil me
inducen el imaginar un perfil muy semejante, aunque evidentemente
116
no igual. Por completar la nómina de la vecindad no nos podemos
olvidar de que por algún lado andarían también los neutralinos, o algo
así: las fantasmagóricas almas de la materia oscura.
Dediquémoles un poco más de tiempo a los neutrinos, unas partículas
muy esquivas. Hasta hace poco se creía que no tenían masa, aunque
ahora sabemos que realmente ofrecen a la gravedad una muy ligera
interacción, del orden del eV para los neutrinos menos pesados. No
tienen carga, por lo que son transparentes para el campo
electromagnético. Y también son ignorados por la fuerza nuclear
fuerte. Podríamos decir que el campo relativista neutrino sólo está
ligado a otros campos de partículas a través del campo de la
interacción nuclear débil, con el que participa muy activamente
provocando, o siendo el producto, de reacciones de aniquilación de
otras partículas. Algunas de ellas son las reacciones de desintegración
radiactiva, como las que se dan en el núcleo de las estrellas. En
particular, ayudados por los bosones W y Z del campo nuclear débil,
no dejaban tranquilos a nuestros bariones.
Ya podemos imaginar que los recién estrenados protones y neutrones
estaban quedando a merced de la fuerza nuclear débil. Y los
neutrinos, que aunque tenían muy poca masa, en este momento
disponían de una energía elevada, estaban también allí, formando una
población superabundante. Entre todo este tipo de partículas se
producían múltiples interacciones al chocar, provocándose las
conocidas como reacciones β inversa (ver imagen de más abajo):
neutrinoe + neutrón ↔ protón+ + electrón-
protón+ + antineutrino ↔ neutrón + positrón+
Por causa de estas reacciones los protones pasaban a neutrones, los
cuales respondían a su vez pasando a protones en un equilibrio
numérico casi perfecto. Mientras los neutrinos tuvieran energía
suficiente como para provocarlas, su ritmo seguiría tranquilamente.
Pero la vida no es tan tranquila. El sustrato que estaba soportando
estos intercambios, el tejido espacio-temporal del Universo, se estaba
expandiendo, lo cual afectaba a la longitud de onda de los neutrinos,
alargándola y en consecuencia disminuyendo su energía.
117
Esquema de la reacción beta inversa. Un neutrino electrónico y un
protón interaccionan decayendo en un positrón y un neutrón
(Imagen: Sergio Torres, fair use)
En el difuso momento en que se sobrepasaba el umbral de 1 segundo
el nivel energético era tan bajo, 1 MeV, que la energía de movimiento
de los neutrinos ya no fue suficiente para iniciar las reacciones
nucleares débiles con neutrones y protones. Podemos pensar que las
ondas de los neutrinos eran tan grandes que los bariones se escapaban
entre las piernas del neutrino. Como resultado, los neutrinos
quedaron libres para volar a su aire por todo el espacio-tiempo del
Universo, abandonando el equilibrio termodinámico que habían
mantenido con las otras partículas. Aquellos neutrinos primitivos aún
están por ahí, aunque con una energía muy disminuida debido al
enfriamiento general producido al expandirse el Cosmos. Los
cálculos nos dicen que deberíamos ver en el Universo frío de hoy
unos 112 neutrinos por centímetro cúbico. Pensamos que en este mar
de fondo, lo que conocemos como fondo cósmico de neutrinos, la
temperatura ha descendido hasta los 1,95K.[8]
Por desgracia, con el nivel de tecnología del que disponemos hoy en
día no podemos llegar a detectar su pista de la misma manera como
lo hemos podido hacer con la pista de los fotones que se liberaron de
la masa bariónica bastante más tarde. Si consiguiéramos la foto del
fondo de neutrinos tendríamos información directa del Universo a la
edad de poco más de ¡un segundo!
Pero la historia sigue. Los protones y neutrones que quedaron libres
de los neutrinos tras su emancipación cósmica siguieron estando en
manos de la fuerza nuclear débil, ahora siguiendo otro tipo de
118
reacciones de desintegración β que les podía afectar, las
desintegraciones β- y β+:
desintegración β-
neutrón → protón+ + W- → protón+ + (electrón- +
antineutrinoe)
desintegración β+
protón+ → neutrón + W+ → neutrón + positrón+ +
neutrinoe
[http://francis.naukas.com/2013/11/18/francis-en-
trendingciencia/#more-28270]
[http://eltamiz.com/esas-maravillosas-particulas/]
121
[http://eltamiz.com/2007/10/18/esas-maravillosas-particulas-
el-gluon/]
[http://particleadventure.org/spanish/top_pros.html]
[http://particleadventure.org/spanish/k2s.html]
122
13: La nucleosíntesis I
123
vez menos numerosos. Y entre ellos, comandando sus vidas, las
cuatro fuerzas fundamentales generando sus particulares bosones
intermediadores.
Hasta el segundo 14 siguió la batalla perdida del neutrón por
sobrevivir. Más o menos en este tiempo la energía media del universo
bajó hasta un nivel de 0,5 MeV, con la que los electrones no podían
ya transformar protones en neutrones en interacciones β,[1] mientras
que su inestabilidad natural, la del neutrón, hubiera hecho que se
redujera su población universal a la mitad cada 15 minutos.[2] Por el
contrario, los protones conseguían mantener su población e incluso
incrementarla gracias al decaimiento de los neutrones. De forma que
en este momento en particular la menguante relación protón/neutrón
ya era de 5/1. Protones y neutrones que se trataban casi de tú a tú,
molestos solamente por la acción de los fotones que continuamente
chocaban con ellos, desviando su trayectoria y dificultando cualquier
tipo de nuevas relaciones entre ellos. Mientras, los electrones seguían
apurando los últimos coletazos en sus relaciones de equilibrio
térmico con los positrones y con la radiación.
A partir de un difuso segundo 14, con un Universo a 3×109K, los
electrones y los positrones empezaron a ser aniquilados más
rápidamente de lo que eran regenerados a partir de los fotones y de
los neutrinos. No en vano la energía media había caído por debajo del
MeV, equivalente a la masa del electrón y el positrón. Este tipo
de reacciones de aniquilación
p+ + e- → fotón + fotón
eran más frecuentes que éstas otras inversas de creación
Fotón(es) → p+ + e -
Este hecho hacía que se incrementara con nuevos fotones, producto
de las reacciones de aniquilación, la población de la radiación, sin
que se consumieran en las reacciones contrarias, lo que supuso una
inyección de energía en la misma[3] que provocó una ligera
ralentización en la situación de caída libre de la velocidad de
enfriamiento. Sin embargo, los neutrinos que se habían desacoplado
del plasma hacia poco, como vimos en el capítulo anterior, no
124
sufrieron este recalentamiento, ya que sus densidades en el Universo
habían sido fijadas desde el momento de su emancipación de la
materia. La consecuencia es que hoy si llegáramos a observar a
aquellos neutrinos de fondo, cosa que aún no hemos conseguido, casi
con seguridad los encontraríamos más fríos que la radiación de fondo
de fotones. ¿Cuánto? Lo que nos diga esta relación que sigue, en la
que ν se refiere a los neutrinos y γ a los fotones de la radiación
125
la derecha se ve cómo las temperaturas de neutrinos y fotones se van
separando con la expansión del Universo,[4] a favor de un
recalentamiento de los segundos.
Pero esta situación no duró mucho, ya que, a pesar del ligero frenado
del proceso de enfriamiento por la expansión del Universo, se llegó a
lo inevitable. Al poco de la fuga neutrínica se llegó a un nivel
energético promedio por partícula tal que protones y neutrones, a
pesar de las interferencias y choques con los fotones, pudieron por fin
aproximarse lo suficiente entre ellos como para que la fuerza nuclear
fuerte pudiera intervenir. A pesar de que tal fuerza llevaba un tiempo
echando toda la carne en el asador para contener a los quarks juntos
dentro de protones y neutrones gracias a la inestimable colaboración
del campo gluónico, le sobraba energía para seguir con sus diabluras,
ahora apoyada por el campo piónico. La fuerza nuclear fuerte
residual, con la ayuda del bosón pión, aglutinó a protones y
neutrones formando núcleos atómicos.
Dicho lo dicho, nos podemos preguntar por qué sucede esto si las
cargas positivas de los protones deberían repelerse y romper el
núcleo, o bien el porqué de que unas partículas neutras como los
neutrones tengan esta afinidad a los protones, con los que forman
estructuras tan estables. La respuesta la encontramos en el diferente
patrón de fortaleza que tienen las fuerzas electromagnética y nuclear
fuerte con relación a la dinámica de unión-separación entre dos
partículas en juego.
El potencial de la última interacción, la fuerte, sigue el siguiente
patrón
Unf = K [e-mr / r]
Siendo K una constante, m la masa del pión -la partícula
intermediadora- y r la distancia entre las dos partículas que
interaccionan en el campo nuclear fuerte.[5] Este potencial dibuja una
curva en la que aparece un pozo, como lo podemos ver en la imagen
siguiente, en donde la hemos comparado con la hipérbola decreciente
de la interacción electromagnética.
126
En este diagrama el eje vertical corresponde a la fuerza de
atracción entre nucleones, en newtons (kg x m/seg 2), mientras que
en el eje horizontal se representa la distancia r entre ellos, en
fermis (10-15 metros) (Imagen: fair use)
El hecho físico en la aproximación de dos protones sería el siguiente
(ver esquema de arriba): La fuerza electromagnética se hace mayor
en las cortas distancias, así que la repulsión entre dos protones se hace
más acusada a medida que se acercan el uno al otro. Sin embargo, la
fuerza nuclear fuerte presenta otro patrón. Para distancias más
grandes de 10-15 metros, el tamaño aproximadamente del radio de un
protón, genera un pozo de potencial lugar ideal para que los
nucleones reposen en un mínimo unidos por una tremenda fuerza
atractiva producida por la intermediación de bosones pión entre
protones y neutrones, de acuerdo a las reacciones que indico un poco
más abajo. En estas distancias se manifiesta como una fuerza
atractiva mucho más potente que la electromagnética repulsiva. Más
allá de los 10-15 metros su fuerza decae exponencialmente,
haciéndose despreciable frente a la fuerza electromagnética.
Y esto es lo que sucede en el núcleo de cualquier átomo mayor que
el del hidrógeno,
p+a + n0a → (n0b + π+) + n0a → n0b + (π+ + n0a) → n0b + p+b
127
n0a + p+a → (p+b + π -) + p+a → p+b + (π - + p+a) → p+b + n0b
Como se ve, dentro del núcleo hay un continuo baile de protones (p+)
y neutrones (n0) de primera generación (subíndice a) que pasan,
apoyados por los piones (π), a neutrones y protones de segunda
generación (subíndice b). Así que el pión es el que proporciona el
pegamento de cohesión, quedando claro que para conseguir núcleos
los protones precisan de la presencia de neutrones. Cuanto más
parecido sea el número de unos y otros, los núcleos serán más
estables. Si dominasen los protones, la repulsión electromagnética
rompería al núcleo; si dominasen los neutrones, algunos quedarían
fuera del alcance de la fuerza nuclear fuerte que les une a los protones,
por lo que se desintegrarían al estar libres.[6]
La nucleosíntesis, o consolidación de los primeros núcleos atómicos,
se inició mucho antes de que pudieran haber pasado los primeros 15
minutos, duración de la vida media de un neutrón –exactamente 885,7
± 0,8 segundos-. A los 100 segundos aún podíamos encontrar
neutrones libres -los que se estaban escapando de la quema-
dispuestos a enlazar sus vidas con los protones, por lo que más o
menos en este momento comenzaron a aparecer los primeros núcleos
atómicos de una forma estable.[7] Para un protón le resultaba más fácil
-más probable dado el nivel de energía- echar mano de la fuerza
nuclear fuerte que del electromagnetismo. Por eso dejó pasar su
primera oportunidad de formar un átomo de hidrógeno y se fue con
un neutrón a formar un núcleo de deuterio. Y esto fue lo que salvó a
los neutrones de la aniquilación total: El quedar protegidos dentro de
un núcleo atómico.
Recordemos cuál era la amenaza para los neutrones libres:
neutrón → protón+ + electrón- + antineutrinoe
Con el neutrón dentro de un núcleo, y allí asociado con los protones,
si se hubiera dado esta reacción de desintegración, el electrón no
hubiera podido escaparse del núcleo, ya que no nace con la energía
suficiente como para vencer la atracción de la carga positiva de los
protones. Hubieran entonces colapsado protón y electrón, por lo que
128
realmente se plantea como imposible el que se iniciara cualquier
desintegración β en neutrones nucleares no libres.
El núcleo más simple ya lo teníamos allá por el segundo t=10-6, desde
que aparecieron los hadrones a partir de los quarks: el del hidrógeno,
es decir, un solitario protón. Pero para salvar a los neutrones nos
interesa por tanto algo más sofisticado como núcleo, el del deuterio:
un protón y un neutrón unidos en todo su esplendor mediante la
intermediación de los piones.
El resultado de tal cuestión nos parece que debió ser trascendental.
Hoy en día vemos cómo nuestro mundo está conformado por el juego
físico entre elementos químicos. Se nos antoja, pues, que al
nacimiento del núcleo del deuterio le debemos prestar una atención
especial. Y eso es lo que haremos en el siguiente capítulo, donde no
sólo hará acto de presencia el deuterio, sino que también aparecerán
unos pocos colegas más.
129
5. Para los curiosos, esta forma para el potencial de la fuerza nuclear
fuerte la propuso el físico japonés Hideki Yukawa, premio Nobel
de física en el año 1949.
6. En realidad eso es lo que se observa en la naturaleza, en donde
los átomos, y sus isótopos, si los ordenamos en unos ejes que
representan el número de neutrones y el número de protones,
toman la forma de una nube alargada más o menos según la
diagonal de los ejes. Realmente, a altos números atómicos -
muchos protones- el núcleo proporcionalmente necesita un extra
de neutrones para compensar la gran fuerza de repulsión
electromagnética que se acumula con tantos protones. En líneas
generales, los átomos que se ajustan al “eje” central del
ordenamiento son estables. Los situados por encima o por debajo
tienen exceso de protones o de neutrones, y por tanto tienden a
ser inestables, cosa que solucionan con algún tipo de decaimiento
β por el que un neutrón pasa a protón o bien un protón pasa a
neutrón. Si se ve la estabilidad del núcleo muy “apurada” puede
emitir directamente un protón o un neutrón sin más líos, siendo
el que sigue el proceso cuando los núcleos son muy muy grandes:
directamente se desprenden de una parte -el mínimo es una
partícula α, que están formadas por dos neutrones y dos protones-
o bien se fisionan espontáneamente.
7. Ya habían aparecido núcleos de deuterio, un protón más un
neutrón, desde los 30 segundos, pero de forma inestable.
130
14: La nucleosíntesis II
131
Pero sigamos la historia. Si analizamos la energía de enlace de los
primeros elementos de la tabla periódica de Mendeléyev o sus
isótopos, teóricamente podríamos esperar que cada uno de ellos
aparecería, o se haría definitivamente estable, cuando el nivel
energético promedio del Universo cayera por debajo de la energía con
que se enlazan sus nucleones. Así que, para poder seguir las
posibilidades de creación de los siguientes núcleos tras el del
hidrógeno, vamos a ver qué características tiene el posible “material”
implicado, recordando que en el tiempo un segundo después del Big
Bang la energía promedia era de 1 MeV y a los 200 segundos, de 100
KeV. A continuación listo las energías de enlace por nucleón en los
primeros elementos más ligeros:[1]
132
Esquema de los tres isótopos naturales del hidrógeno, de izquierda
a derecha: protio, deuterio y tritio (Wikimedia, CC BY-SA 3.0)
Podemos pensar que al ser la energía de enlace de los nucleones del
helio 4 muy alta, antes habría pasado la frontera del equilibrio térmico
hacia el estado libre y estable, por lo que las primeras reacciones de
nucleosíntesis fueron quizás las suyas. Sin embargo, a tan altas
energías los cuatro bariones que se tenían que unir se desplazaban
aún a velocidades demasiado altas como para que la fuerza nuclear
fuerte los atara a los cuatro a la vez: la probabilidad de obtener un
núcleo de helio 4 era baja. Esta circunstancia obligaba a que este
núcleo naciera por aproximaciones sucesivas a partir de una primera
unión de dos nucleones… para seguir con la adición paulatina de los
otros. Y lo mismo le estaba pasando al hidrógeno 3 o al helio 3. Eso
quiere decir que realmente las primeras reacciones de
nucleosíntesis tuvieron que ser las que produjeran núcleos de
deuterio.
Podemos pensar que si se hubieran juntado dos protones, o dos
neutrones, y se hubiera convocado a la fuerza nuclear débil, se podría
haber conseguido en cada caso un núcleo de deuterio mediante el
cambio de sabores en uno de los miembros de la pareja -un protón a
neutrón o un neutrón a protón-, por el mero hecho de seguir
cualquiera de las dos reacciones siguientes:
protón + protón → protón + [neutrón + positrón +
neutrino] → deuterio + positrón + neutrino
neutrón + neutrón → neutrón + [protón + electrón +
antineutrino] → deuterio + electrón + antineutrino
133
Sin embargo, en aquel momento la fuerza nuclear fuerte era más
potente que la débil en un factor de varios órdenes de magnitud, por
lo que era más fácil, más probable, el que se diera la reacción directa
entre protones y neutrones, sin intermediación de neutrinos:
neutrón + protón → deuterio + 2,22 MeV
Pero cualquier partícula que portase una energía superior a estos 2,22
MeV rompería el frágil núcleo del deuterio, lo cual suponía una seria
barrera en el camino hacia núcleos más pesados. La estabilidad
definitiva del deuterio se conseguiría a partir de un momento en que
la temperatura fuera la equivalente a este nivel de energía. Para ello
tuvo que bajar hasta 1010K, cuando la energía del Universo se colocó
en un nivel del orden del MeV en la frontera de los 14 segundos de
la que hemos hablado antes.
A los 100 segundos tras el Big Bang la energía era de 100 KeV y
seguramente muchos núcleos de deuterio eran ya estables. En aquel
momento la mitad de los neutrones existentes vivían enlazados en
núcleos de deuterio. Todo dibujaba un escenario propicio para que
los núcleos de deuterio existentes pudieran reunirse de forma estable
y en cantidades significativas, aumentar el tamaño y gestar así nuevos
núcleos. Como podemos ver en el diagrama siguiente, los más
sencillos surgirían por la unión de un deuterio con otro protón, u otro
neutrón, dando en cada caso un núcleo de helio 3 o un núcleo de tritio,
siguiendo las pautas de las siguientes reacciones:
3
deuterio + protón → helio + fotón
3
deuterio + deuterio → helio + neutrón
deuterio + deuterio → tritio (3hidrógeno) + protón
Para conseguir el núcleo del helio 4, que tiene dos protones (p) y dos
neutrones (n), se hacía preciso pasar por los dos isótopos anteriores,
tritio (t) o helio 3, según podemos ver en el esquema anterior. El helio
4, a los niveles de energía en que el deuterio (d) ya estaba consolidado
–hemos decidido hacer la foto a 100 KeV-, era muy estable, como
podemos deducir de la ecuación ficticia que fija su nacimiento
134
protón + protón + neutrón + neutrón → helio 4 + 28 MeV
138
[http://eltamiz.com/2007/11/06/la-vida-privada-de-las-estrellas-
las-gigantes-rojas/]
[http://eltamiz.com/2007/12/06/la-vida-privada-de-las-estrellas-
supernovas-de-tipo-ii/]
139
15: La sinfonía del Universo I
140
La pregunta es: ¿cómo se generaron estas ondas de presión? Porque,
a fin de cuentas, una onda sonora es exactamente una onda de presión
que apelmaza y relaja la densidad de las partículas de la materia
mientras va viajando por el espacio. Luego… empecemos por la
materia.
Sabemos que en el plasma del Universo se había quedado dibujado el
patrón de fluctuaciones cuánticas que se habían generado durante las
primeras fases expansivas provocadas por el campo inflatón.[2] La
tremenda aceleración hizo que estas fluctuaciones se extendieran por
todo el Universo de una forma prácticamente homogénea. Y ya
sabemos también que desde el mismo momento en que se frenó la
energía expansiva del proceso y se transformó en materia distribuida
homogéneamente por el Universo, ésta heredó el barniz de las
fluctuaciones cuánticas iniciales. El tejido espacio-temporal del
Cosmos había quedado como un mosaico de zonas con distintas
densidades de materia, aunque bien es verdad que la diferencia entre
unos y otros lugares era tan escasa que podemos imaginar al plasma
primigenio como casi perfectamente homogéneo.
Si hacemos zoom sobre una cualquiera de estas zonas veremos dos
tipos de materia: la bariónica, formada básicamente por protones,
neutrones, electrones y neutrinos, y la materia oscura, que no
sabemos realmente lo que es pero que abulta como cinco veces la
bariónica. Realmente hay mucha materia oscura.[3] Gracias a la
incesante expansión, las partículas de materia bariónica y de la oscura
iban diluyéndose cada vez más en la menguante densidad del plasma.
Cada vez les costaba más encontrarse e interactuar entre ellas, aunque
eso no quería decir que no lo hicieran. Veamos lo que le sucedía a la
bariónica.
Sus principales actores, los protones y electrones, junto con los
fotones de la radiación que los bañaba, seguían yendo forzosamente
de la mano, ya que no podían ir muy lejos unos de otros. Los protones
de carga eléctrica positiva y los electrones negativos, aunque en las
cercanías se movían separados, intercambiando cómplices guiños
gracias a sus cargas opuestas. Los fotones que constituían la radiación
del plasma aún tenían energía suficiente como para, al chocar con
ellos, impedir la unión definitiva de cargas opuestas. Aunque con la
141
que tenían les sobraba como para interactuar con los electrones a
través de choques dispersivos del tipo Thomson, tras los que el fotón
salía en una dirección distinta a la que traía antes de la colisión, con
la misma frecuencia pero habiendo perdido energía. Así, la radiación
y la materia bariónica, unidas por el pegamento de los electrones,
vivían un escenario de continuos choques y dispersiones, de forma
que la primera -la radiación- era incapaz de volar libre e
independiente.
143
Motorizado por la expansión del Universo, un frente de onda esférico
de materia bariónica se alejaba del punto inicial donde se había
generado arrastrando con sus protones y electrones a una radiación
muy caliente. En el centro relajado quedaba una materia oscura, que
seguía comprimiéndose gracias a su propia gravedad, y una radiación
menos energética, más fría. El proceso general queda reflejado en la
secuencia de imágenes siguiente. Cada una representa la situación de
la burbuja en un momento determinado de la vida del Universo, con
la distribución de materia y energía que habría en su interior. Acaba
en el año 380.000 que es cuando la radiación se evade finalmente de
la materia, cosa que explicaremos con detalle en otro capítulo.
144
materia oscura y bariónica. Vemos cómo a los 14.000 años ya se
habían desacoplado ambos tipos de materia, iniciando la bariónica la
cresta de la onda esférica. Con el tiempo se va estabilizando hacia su
máximo alcance -horizonte acústico-, indicado con la barra vertical
de trazos grises. El efecto gravitatorio de la materia bariónica afecta
a la materia oscura que había quedado en el centro de la perturbación
inicial y arrastra a la última en cierta medida hacia fuera. Mientras,
se ve cómo los fotones van acompañando al frente de onda bariónico
y sólo empiezan a desacoplarse cuando llega la edad de 380.000 años.
Esto sucedía en mayor o menor grado en todos los puntos del plasma.
Dependiendo de sus densidades particulares, resultado de las
condiciones de la fluctuación cuántica que allí se había producido
durante la inflación, cada una de las ondas generadas de partículas
bariónicas y de radiación esclava presentaban su propio patrón. Todas
ellas coincidían acopladas en el tejido del espacio-tiempo, por lo que
al interferir espacialmente unas con otras hacían del plasma un mar
embravecido cruzado por un patrón de ondas heterogéneo. Crestas
elevadas de materia oscura y otras menores de materia bariónica. No
en vano la primera era en masa unas cinco veces la segunda. Y todo
esto incansablemente a lo largo de 380.000 años, momento que
entenderemos su porqué en el siguiente capítulo.
Como resultado de la dinámica anterior podemos imaginar que cada
punto de nuestro Universo, según sus características de densidad y
temperatura, se comportaba como un oscilador resultado de los
procesos de compresión y descompresión. Lo podemos imaginar
como algo semejante a lo que sucede en la superficie del agua cuando
se tira una piedra: las moléculas se apelmazan y distienden a medida
que la onda va extendiéndose en circunferencias concéntricas. Y cada
punto se comporta como un oscilador, acumulando y relajando
energía. Lo mismo pasa con el aire cuando se produce un grito que lo
comprime: el fenómeno es exacto al descrito para el agua, aunque en
este caso las ondas no se ven y sólo se escuchan cuando llegan al
oscilador de nuestro oído.
Es lo que hemos llamado ya tantas veces antes de ahora, a lo largo de
estos capítulos, las ondas sonoras del Universo primigenio.
145
Creo que las imágenes anteriores[5] pueden permitirnos imaginar
bastante bien el proceso que un poco más arriba nos habíamos
atrevido a describir como “…un mar embravecido cruzado por un
patrón de ondas heterogéneo”. Las dos de arriba hay que verlas de
forma correlativa como un inicio del pico de onda que con el tiempo
se va extendiendo hacia afuera del centro donde se originó, lo que
corresponde a la de una sola burbuja generada en un particular punto
del plasma. Mientras que en la segunda se simulan los vaivenes del
conjunto de ellas en todo el espacio.
Creo que ahora podemos entender bien la analogía que hacía con una
obra musical. En ella cada instrumento, con su timbre y color
característico, genera su patrón de ondas y frecuencias, generando
con su dinámica conjunta una fantástica armonía. El Cosmos también
tiene sus instrumentos en la diversidad local de la densidad de su
plasma: cada uno de los puntos que habían emitido su particular onda
de materia bariónica era uno de ellos, que al sonar acoplados
146
generaron un vaivén musical,[6] quizás cacofónico para nuestros
gustos, pero que no deja de ser su melodía.
En este punto en que nos acabamos de encontrar con el susurrar de la
música primordial del Universo primitivo vamos a hacer un
intermedio. El reposo nos ayudará a asimilar el concepto antes de
avanzar en su teoría a lo largo del siguiente capítulo.
[https://sunearthday.nasa.gov/2007/locations/ttt_sunlight.php]
[http://scienceblogs.com/startswithabang/2008/04/25/cosmic-
sound-waves-rule/]
147
Universidad de Washington, explica qué hizo para obtenerlo y por
qué lo hizo.
[http://faculty.washington.edu/jcramer/BBSound_2013.html]
148
16: La sinfonía del Universo II
149
Vayamos a por harina e intentemos entender su armonía. Porque si
conseguimos distinguir en los acordes de esta melodía los violines de
los oboes, los distintos instrumentos de su plantilla, quizás
comprendamos mejor su ser. Para ello necesitamos introducir ciertos
conceptos elementales de la física de los sonidos y de las matemáticas
que la soportan. Que no cunda el pánico: seré muy suave.
La figura siguiente representa una curva cíclica, no muy alejada de lo
que puede ser la onda sonora de un instrumento musical, generada al
tocar una determinada nota. Tiene un perfil periódico pero presenta
una variación muy aleatoria a lo largo de este periodo. En principio
puede parecer un galimatías caótico, aunque gracias a las
matemáticas podemos hacer con ella una abstracción y
descomponerla en un sumatorio de ondas perfectamente sinusoidales,
cada una de ellas con una frecuencia el doble de la anterior, siendo la
primera, la de mayor longitud de onda (f), lo que se suele conocer
como la frecuencia fundamental.
151
Este comportamiento físico lo podemos extrapolar al Universo, que
se comportó en su periodo sinfónico como un conjunto de flautas. La
diferencia entre una flauta y el universo es que las ondas en la flauta
son conformadas por la longitud, mientras que en el Universo se
consideran en el tiempo. Ya sabemos que esas últimas, arrastradas
por la propia expansión del Universo, se comportaban como un punto
en expansión espacio-temporal que iba conformando una especie de
burbuja esférica, en cuya superficie se iba manifestando una presión
cambiante con el tiempo. Si la seguimos a lo largo de su trayectoria
temporal podemos imaginar que iba dibujando una onda de presión.
Son las ondas esféricas de materia bariónica y radiación, ondas que
el juego motor “compresión gravitatoria-presión de la radiación
relajadora” estaba generando en cada punto del plasma del Cosmos
desde el primer momento tras la inflación. Estas ondas en el plasma-
gas eran físicamente similares a una onda sonora, por lo que tenían
que desplazarse a la velocidad del sonido. Y a pesar de la escasa
densidad a lo largo de la mayor parte de la época del plasma, ya que
un poco antes de las tres horas de vida el Universo ya era menos denso
que el aire, la velocidad del sonido en este medio era elevadísima
gracias a la energía -mucha presión que dificultaba el movimiento-
que incorporaba la abundante radiación.[4] De hecho, avanzaba casi
¡al 60% de la velocidad de la luz![5]
153
A medida que avanzaba el tiempo la onda se ampliaba por el
espacio del Universo, haciéndose su longitud L mayor. El Cosmos
era la superposición de los efectos de todos sus armónicos, cada
uno de mayor frecuencia y menor amplitud -aunque el dibujo no sea
coherente con esto último-, que matemáticamente parecían tener
vida propia.
El conjunto sumado corresponde a la aportación de una determinada
onda-esfera a la fotografía del Universo a la edad correspondiente a
una L determinada. Como intenta expresar la figura de arriba, cada
uno de los armónicos de la onda sonora tenía una longitud de onda
menor que el anterior. Así que, en algunas zonas, la concentración de
materia bariónica que había acumulado -en una ficción matemática-
el armónico fundamental se veía matizada por la relajación que había
sido creada en las oscilaciones “gravitación-presión de radiación” de
los armónicos pares o por el reforzamiento que introducían las de los
impares. A mayor densidad bariónica, mayor densidad de radiación
y, por tanto, mayor temperatura. La anterior figura nos permite
hacernos una idea visual de cómo el armónico fundamental fue el que
generó la mayor diferencia posible de temperaturas entre dos puntos
154
cualquiera del mapa del Cosmos. Estos puntos estaban separados por
una distancia L, que era el radio de nuestra onda-esfera de sonido, el
espacio que había corrido el frente de materia a lo largo de los
380.000 años a la velocidad del sonido.[8]
Una conjunción de armónicos en una onda, una conjunción de ondas
en el espacio… un Universo grumoso de materia con unos patrones
de temperaturas acordes con ello. Un plasma convulso con cada vez
menos energía, en donde se estaban gestando las semillas de la futura
estructura a gran escala del Cosmos. Y llegó la fecha talismán,
380.000 años de edad, cuando la energía promedio por partícula
rondaba los 0,25 eV y la temperatura era semejante a la de la
superficie de nuestro Sol. La sinfonía llegó a su acorde final.
Entonces… ¡¡¡FLASH!!!
El momento es mágico… lo dejo en el aire y aquí dejo este capítulo.
[http://scienceblogs.com/startswithabang/2008/04/25/cosmic-
sound-waves-rule/]
2. Adelanto aquí que este patrón se obtiene del estudio del mapa de
radiación de fondo de microondas. Este último está formado por
los fotones que escaparon de la materia allá por el año 380.000 de
la vida del Universo.
3. Ni es un número entero que va desde un valor 2 hasta, en teoría,
infinito, aunque mucho antes se amortiguan tanto los armónicos
que se hacen inaudibles.
155
4. Recordemos que en el relajado Universo tras la nucleosíntesis
llegaba a haber unos 109 fotones por cada barión.
5. Realmente a c/√3.
6. Ya adelanto en este pie de página que se trata del momento
conocido como de la recombinación, cuando los electrones se
acoplaron a los núcleos dejando a los fotones en libertad. Estos
últimos son precisamente los que conforman lo que llamamos
radiación de fondo de microondas.
7. No liarse con la cifra dada en una imagen más arriba de 480
millones de años luz, que es el tamaño que tiene el horizonte
acústico hoy. Pero en el momento de la recombinación el universo
era unas 1.100 veces más pequeño, por lo que la longitud del
horizonte acústico entonces era de los 440 mil años luz
mencionados en el texto.
8. Advierto que aquí la velocidad del sonido no es de 340 m/seg, que
es aquella con la que se propaga por el aire. En el Universo se
propagaba a través de un plasma que pasó de ser más denso en
materia que el aire a ser menos denso, pero siempre con una
densidad de energía que ralentizaba el movimiento de las ondas de
presión.
156
17: El big flash
158
Aquello no fue como un fogonazo de transparencia, aunque
realmente nos guste imaginarlo así. Duró su tiempo. Pero ese flash lo
hemos podido fijar con nuestros magníficos instrumentos COBE,
WMAP y Planck,[6] y así disfrutar de la primera fotografía de infancia
de nuestro Cosmos: la que recoge a aquellos fotones en el mismo
instante en que huyeron de la materia a 3.000K, hace más de 13.400
millones de años, y que ahora llegan a nuestras cámaras. Llenan el
Universo entero y vienen de todos los lados. Aquí está la foto.
160
A la vista de las irregularidades en la imagen de la radiación de fondo
de microondas puede parecer que el proceso no fue muy homogéneo,
pero realmente entre unos puntos y otros hay diferencias máximas de
tan sólo una parte en 100.000. Es como si la superficie de una piscina
olímpica de 50 metros se estuviera moviendo con olas de 0,5
milímetros. Inapreciable.
Pero volvamos nuestros ojos a un matiz que quizás se nos haya
escapado. La foto dibuja en cada punto la longitud de onda de los
fotones que de allí proceden, es decir, corresponde a la energía de
estos fotones en este punto. Hemos dicho que a mayor energía del
fotón mayor concentración de la materia. Luego el punto con mayor
temperatura de su fotón es el punto con mayor densidad de energía-
materia. La foto de la radiación de fondo de microondas es
sencillamente la foto de la distribución de la materia en el
Universo cuando tenía casi cuatrocientos mil años.
Vamos a dedicarle un poco de tiempo a lo que nos dice esta imagen.
Realmente corresponde a una proyección cartográfica plana del tipo
Mollweide de la esfera celeste o del cielo nocturno.[11] En esta especie
de elipse está representada la totalidad del firmamento visible, lo que
un día cualquiera nosotros podemos ver si miramos al profundo cielo
en todas las direcciones de donde nos viene luz. Pero que se le ha
manipulado un poco. Eliminemos la luz solar que oculta a los
pequeños focos que nos interesan. Eliminemos también la de las
estrellas y galaxias, sobre todo la de la Vía Láctea. La luz remanente
que nos queda tras esta acción de borrado son los fotones de la
radiación de fondo que proceden de la lejana superficie de la esfera
de la recombinación.
Con nuestro ojo, que no olvidemos que es un aparato biológico para
detectar fotones, no los vemos, ya que la frecuencia de esta ancestral
luz queda muy alejada del espectro visible, está en el rango de las
microondas.[12] Pero el hombre, como animal insaciablemente
curioso e inteligente, ha ido ideando métodos para detectar a estos
fotones, mejorando sus aparatos de percepción de la luz, desde la
rudimentaria antena con la que Penzias y Wilson en 1965
descubrieron de una forma muy rocambolesca[13] los fotones del
fondo de microondas, hasta los modernos satélites como el COBE, el
161
WMAP o el Plank que transportan unos telescopios con resoluciones
fantásticas. La foto que obtuvieron nuestros dos pioneros
descubridores era monocromática… para ellos y su tecnología todos
los fotones del fondo eran de la misma energía. La resolución fue
progresivamente mejorando con las tres sondas mencionadas.
Y al igual que la foto de nuestros tatarabuelos nos permite saber cómo
eran ellos, las tomadas por COBE, WMAP y Plank nos permiten
saber cómo era el Universo de 380.000 años.
165
Pero en nuestro caso lo vamos a hacer sobre la imagen de la esfera
celeste del fondo de microondas -la foto de más arriba, segunda de
este capítulo-. Como podéis imaginar el tema da mucho de sí, lo que
aconseja desarrollarlo en un siguiente capítulo. Lo haré de forma
somera, aunque espero que suficiente para ser entendido.
166
neutrinos “echaron a correr” antes. Es una pista para buscar dónde
puedan estar ahora los esquivos neutrinos primigenios.
[https://arxiv.org/pdf/0907.2887v1.pdf]
167
18: Lo que nos enseña la radiación de fondo I
más teoría
168
Esas anisotropías llevan encriptadas en su apariencia grumosa: [1] la
información de quiénes la hicieron como son, es decir, la
composición de la masa -bariónica y oscura- y su relación con la
densidad de la radiación; y [2] la información de lo que hicieron, el
ritmo de expansión del Universo -constante de Hubble- y de su
curvatura, que dependen de la cantidad de materia y energía total
existente. Podéis imaginar que la realidad de su estudio es harto
compleja, pero conceptualmente, y de forma simplificada, vamos a
intentar explicar el proceso.
Tomamos nuestro campo de trabajo, que es la fotografía del fondo de
microondas, por ejemplo la de la página anterior que nos ha
proporcionado el telescopio del satélite Planck.
La vamos parcelando en áreas que nosotros los observadores vemos
desde fuera cubiertas por un ángulo θ, y que podemos imaginar como
pequeños círculos. Medimos en cada una de estas áreas la ΔT, la
mayor diferencia de temperaturas entre los puntos de su interior. A
continuación determinamos para cada θ un valor promedio de ΔT,
por ejemplo para zonas de un ángulo de 1º la ΔT promedio es de
0,0075K, con lo que obtendremos una serie de [ΔT, θ] que luego se
transcribe a una imagen. Aunque realmente no se usa θ, sino otro
parámetro equivalente: el momento multipolar l, que
aproximadamente se correlaciona con el ángulo según θ~180º/l. Lo
que hemos hecho realmente con esta discriminación angular es algo
así como si al ir disminuyendo el ángulo de observación hubiéramos
ido añadiendo filtros más finos que resaltan las anisotropías ocultas
para los filtros anteriores de mayor ángulo, menos finos. Es como
realizar un viaje desde las zonas más profundas en la edad del
Universo hacia las más actuales. El resultado de este trabajo es la
curiosa curva de la página siguiente.
Una curva con una serie de máximos que, aunque parezca
sorprendente, nos va a dar una información fundamental del
Universo, corroborando lo que ya sabíamos por otras experiencias y
observaciones. El primer máximo es un pico relacionado con las
zonas de máxima compresión de la materia bariónica, que ya sabemos
que es igual a decir “de temperatura máxima”.[1] El segundo, de
menor altura y en un momento multipolar mayor, indica que al mirar
169
con otro zoom podemos observar cómo se ha añadido un efecto de
rarefacción que atempera la temperatura. El tercero atempera la
tendencia al enfriamiento, lo que indica que a escalas aún menores se
ha añadido al segundo pico un nuevo impulso de compresión, por lo
que indica un nuevo refuerzo a la temperatura. Suena tremendamente
a lo que decíamos en los capítulos anteriores acerca de los tres
armónicos primeros de la onda de sonido. Y realmente es así.
170
explicado en otros capítulos de las ondas sonoras del plasma, lo cual
nos hace sentir bastante seguros mientras manejamos nuestras
hipótesis y teorías. Vamos a analizar con un poco más de detalle la
información oculta en este espectro.
172
Fijémonos ahora en el primer pico de la anterior curva de
anisotropías. Es el máximo de la curva, y se da en el entorno del
momento multipolar de l=200, equivalente a zonas abarcadas por una
amplitud angular de aproximadamente 1º. Como este pico es el mayor
de los máximos ya sabemos que tiene que tener alguna relación con
aquellas zonas en donde se dieron las diferencias de temperatura más
extremas. Es decir, y recalcamos, estamos viendo desde nuestro
puesto de observadores en la Tierra a los fotones de la recombinación
que provienen de puntos entre los que se dio el mayor contraste
térmico, cuya separación física está cubierta por un ángulo de 1º.
Sabemos por la teoría que hemos explicado en el capítulo 16 que este
intervalo particular es la consecuencia de la “congelación” del
armónico fundamental de la onda de sonido cuando el Universo tenía
380.000 años, y que la distancia, el “tubo de la flauta”, es el horizonte
acústico en el momento de la recombinación. Los cálculos más
precisos disponibles nos dicen que tiene una amplitud de 490
millones de años luz a día de hoy, después de haber crecido 1.100
veces. Y eso ¿qué nos dice?
Pues nos sirve, entre otras muchas cosas, de vara de medida para
investigar sobre la curvatura del Universo. Por todo lo que
observamos parece ser que sigue una geometría euclídea plana.
174
Evolución del primer pico dependiendo de la cantidad de materia
que se considere en el Universo, lo que define su geometría (ver
explicación en el texto). (Imagen: Wayne Hu, Universidad de
Chicago, fair use)
Hay dos curvas teóricas: la azul, que tiene en cuenta además de a la
materia a una energía intrínseca -puede ser pensada como la energía
oscura, aunque ahora estamos en un nivel de cálculo teórico- y la
amarilla, que sólo tiene en cuenta a la materia. La barra rosa de la
derecha indica el parámetro equivalente a “densidad crítica menos
densidad de materia” (de lo que sea la densidad crítica hablaremos
175
unos párrafos más abajo).[5] A mayor barra rosa, menor es la
participación de la materia -bariónica y oscura- en la densidad crítica,
y por tanto más nos alejamos de un universo plano hacia uno abierto.
Si nos fijamos en la curva amarilla vemos que al disminuir la materia
-cuando sube la barra rosa- el primer pico (en general todos los picos)
se desplazan desde una posición l=200 hacia multipolos mayores, que
es lo que podíamos esperar. Vemos que en el proceso de la barra rosa
descendiendo -es decir, el universo está en camino hacia la geometría
plana- el primer pico se aproxima y llega a un multipolo 200, lo que
equivale a una definición angular de 1º. También vemos que en la
curva azul, en la que se tiene en cuenta la energía oscura, el
desplazamiento es casi inexistente, lo cual nos indica que debe haber
mucha de esta energía intrínseca, ya que su influencia anula
prácticamente cualquier variación de la materia.
Pues bien: justo todo eso es lo que hemos visto luego en la realidad
al estudiar los datos obtenidos por nuestros instrumentos. Que nos
permite decir que de las tres posibilidades para el triángulo de la
figura de tres páginas más arriba con base el horizonte acústico nos
tenemos que quedar con la que corresponde para universos planos:
tenemos los tres lados medidos -la base es el horizonte acústico y los
otros dos lados la distancia al borde del Universo observable-,
también hemos medido el ángulo α y es igual a 1º. A partir de esos
datos, los cosmólogos han podido medir con gran precisión la suma
de los tres ángulos, y es justamente 180º. Curioso, ¿verdad? Se trata,
por tanto, de una geometría puramente euclidiana, lo que nos dice
claramente que nos encontramos con un Universo que la cumple,
luego geométricamente se comporta como si fuera plano. Tanta
maravilla esconde un pequeño “pero” que no invalida la
conclusión, porque la verdad es que no conocemos con precisión
absoluta los parámetros que conforman este triángulo. Con ello
quiero decir la velocidad del sonido en el plasma inicial -que
condiciona la longitud del horizonte acústico- y la constante de
expansión del universo -que condiciona los otros dos lados del
triángulo-. De todas formas, los expertos nos aseguran que la
confianza con que lo decimos es del 95%. Yo apostaría mi sombrero
en favor del Universo plano.
176
Evidentemente, un universo plano no tiene sólo dos dimensiones
espaciales. Al menos nuestra experiencia nos dice que podemos
apuntarle tres direcciones ortogonales: arriba-abajo, derecha-
izquierda y delante-detrás, lo que no nos impide imaginar desde
dentro la idea abstracta de planitud. Un ser que nos contemplara
desde la dimensión n+1, siendo n el número de dimensiones de
nuestro Universo, sería capaz de explicarnos con soltura la evidencia
para él de que nuestro Universo es “plano”. Pero ¿por qué es tan
importante que sea plano?
Tiene que ver con la cantidad de materia-energía que contiene. Si
hubiera mucha la gravedad el universo colapsaría en forma de una
esfera cerrada cada vez más curvada y pequeña. Si hubiera poca, la
expansión seguiría acelerada hasta “rasgar” su tejido, cada vez más
abierto y con más curvatura negativa. Cualquier desviación positiva
o negativa con respecto a un punto de equilibrio, aunque hubiera sido
mínima, se hubiera realimentado exponencialmente para caer en el
mundo “colapsado” o en el mundo “rasgado”. Pero vemos que el
universo no parece comportarse ni de una ni de otra manera, lo que
quiere decir que tiene que tener una densidad adecuada para que
suceda lo que observamos, que no habrá variado mucho desde el
inicio. Y ello implica que su densidad de materia y energía, al ser
plano, deba coincidir con la crítica: 0,9×10-29 gr/cm3. Normalmente
se habla no de valores absolutos, sino del porcentaje de participación
de la densidad de cada uno de los componentes en la densidad crítica
total. Estas participaciones se designan con la letra Ω y por tanto, si
en el Universo coexisten tres tipos de materia o energía, como así
creemos que es, se deberá cumplir:
(normalizado a la propia densidad crítica)
xΩ1 + Ω2 + Ω3 = 1 = (0,9×10-29/0,9×10-29)
Por ahora sólo hemos hablado de materia oscura y de materia
bariónica, por lo que deberíamos decir que Ωmateria = 1. Sin embargo,
sabemos por otro tipo de observaciones que en el Universo hay
mucha menos materia bariónica que materia oscura y que entre ambas
aún no suman lo bastante como para justificar la unidad. Luego debe
haber otro componente en el Universo que complemente a las dos
177
materias, circunstancia que también hemos podido deducir del
estudio de la curva de las anisotropías de la radiación de fondo de
microondas: hay una energía intrínseca al tejido espacio-temporal
con muchísimo peso en las cosas que suceden.
Llegados aquí, con las neuronas calientes de tanta materia y
radiación, nos va a convenir mirar solamente a los posos que se hayan
podido decantar, si es que hay alguno. Voy a intentar resumir de todo
el alegato anterior lo que básicamente nos dice el primer pico del
espectro de potencia de las anisotropías de la temperatura del fondo
de microondas: [1] Nuestro universo es plano, [2] con una
determinada relación entre materia oscura y el tándem
bariónica/radiación, que [3] hay bastante materia oscura…
aunque [4]también hay otro tipo de participante. Dicho esto, en el
capítulo siguiente continuaremos con el análisis de los armónicos
encontrados en las anisotropías.
178
19: Lo que nos enseña la radiación de fondo II
179
Tras haber analizado el primer pico, ahora vamos a continuar la
investigación atendiendo al segundo pico que aparece en la
fotografía de la recombinación cuando bajamos a resoluciones más
finas, lo que quiere decir menor ángulo θ o momento multipolar l
mayor. Es como si en el campo circular de 1º del primer pico
empezáramos a ser más puntillosos y lo compartimentáramos en
círculos de menos radio. Al aplicar la lupa en estos terrenos podemos
detectar más pormenores, de forma que si elegimos un radio de medio
grado comenzaremos a apreciar los detalles producidos por la
influencia del segundo armónico de la onda de sonido que,
recordemos, tenía una longitud de onda la mitad que la del armónico
fundamental.[1] El resultado de este rastreo más minucioso nos hace
ver que próximo a l=500, lo que equivale a un ángulo de 0,4º,
encontramos otro máximo en la curva del espectro. En el capítulo
anterior ya dijimos cómo se construye la curva[2] de forma que ahora
ya sabemos que dentro del campo fijado por este ángulo de
observación sobre el fondo del Universo vamos a encontrar un
intervalo de temperaturas característico, menor al que detectamos en
zonas abarcadas por ángulos mayores, y que es consecuencia de la
superposición de influencias de los armónicos, tal como podemos
intuir al ver la figura de más abajo. No nos debe sorprender, por tanto,
que el segundo pico en las anisotropías aparezca donde aparece y que
tenga una menor altura que el primero.
180
Ahora vamos a intentar entender el mensaje oculto en este segundo
pico. Para ello imaginemos que en el Universo, por arte de magia, se
incrementa la densidad de la materia bariónica. Tenemos que pensar
que si eso sucede el pozo gravitatorio inductor de la onda sonora sería
mucho mayor, lo que haría que la compresión inicial fuera más
potente antes de que la presión de la radiación comenzara a actuar
distendiendo a la materia. Deberemos pensar también que al ser el
plasma más denso, lo que induce una especie de rozamiento, esa
distensión sería más pequeña. Es decir, que dentro de los patrones de
la onda sonora los fenómenos de distensión serían penalizados con
relación a los fenómenos de compresión gravitatoria: En general, los
armónicos pares serían penalizados en su amplitud con relación a la
de los armónicos impares.[3]
Todo ello nos tiene que hacer pensar que el primer armónico,
compactador, se reforzaría, mientras que el segundo armónico,
rarificador, se debilitaría con el incremento de materia bariónica. La
consecuencia se debería observar en la curva de anisotropías de la
radiación de fondo. De hecho los resultados de las simulaciones
teóricas así lo manifiestan, como lo podemos ver en las tres imagenes
que siguen.
Evolución de los picos al variar la materia bariónica (Imagen:
Wayne Hu, Universidad de Chicago, fair use)
181
o
En las imágenes vemos cómo al aumentar la participación de la
densidad de la materia bariónica Ωb la diferencia de alturas entre el
primero y segundo pico se incrementa, luego si analizamos la
diferencia de altura entre picos pares e impares de la curva
observacional que encabeza este capítulo, seremos capaces de
deducir la cantidad y composición de materia en el Universo. El
hecho de que la diferencia entre la altura del primer pico y la del
segundo sea tan grande parece indicar la existencia de una cantidad
muy apreciable de materia. Del análisis de esta diferencia de altura
entre los dos primeros picos los cosmólogos han deducido que la
masa bariónica y los fotones tenían la misma energía, lo que les ha
182
conducido a asegurar que la densidad bariónica explica hasta un 5%
de la densidad crítica del Universo. Este dato es muy significativo, ya
que a partir de su observación directa sólo somos capaces de
contabilizar bariones que aportan un 2% a la densidad total. Lo cual
quiere decir que hay un 60% de bariones perdidos en el Universo.
Realmente no están perdidos, están ahí, pero no sabemos donde.[4] Y
esto es lo que nos sugiere el segundo pico.
Ampliando el análisis con los datos que proporciona el siguiente
pico, el cual ya incorpora la incidencia del tercer armónico de la onda
sonora, los expertos llegan a la conclusión de que se necesita aún más
masa para asegurar que los pozos gravitatorios sean lo
suficientemente profundos como para explicar lo que se observa. De
hecho, se ve en la curva resultado de las observaciones reales
efectuadas por nuestros satélites cómo el tercer pico se aparta del
patrón descendente que parecen dibujar los restantes picos, de forma
que es casi igual que el segundo. Lo cual es una pista de que debe
haber más materia de la que parece.[5] Esa mayor masa la
proporcionaría la materia oscura, que tiene que ser cinco veces
superior a la masa bariónica y, por tanto, nos justificaría así hasta un
25% de la densidad crítica.
Aún con todo, nos quedaría en el aire la energía oscura, con un peso
porcentual en la densidad crítica de[6]
ΩΛ(energía oscura) = 1 – Ωmateria oscura – Ωmateria bariónica =
= 1 – 0,25 – 0,05 = 70%
Resumiendo lo dicho hasta ahora sobre la información que inferimos
de la curva de anisotropías: El primer pico nos habla de la planitud
del Universo y de la materia oscura; el segundo, de la existencia de
materia bariónica que no vemos; mientras que del tercero deducimos
la cantidad de materia oscura en el Cosmos.
Los restantes picos son muy sensibles a la relación entre la densidad
de la materia oscura y la de la radiación. A partir del tercer pico del
espectro, los otros van disminuyendo y diluyéndose. Se cree que eso
es así dado que las amplitudes de onda de los correspondientes
armónicos eran mucho más pequeñas que las distancias medias entre
183
los bariones del plasma,[7] por lo que los armónicos menores de la
onda sonora se tuvieron que disipar sin poder influir en las
compactaciones de la materia y radiación.
¡No acaba aquí todo!, porque aún hay más lecciones que aprender de
la foto inaugural. Estos fotones que nos llegan desde hace más de
13.400 años luz no sólo nos dicen los patrones de materia escritos en
su distribución de energías, sino que nos aportan una información
adicional escondida en sus patrones de polarización… ¡Pero bueno!
¿Es que los fotones del fondo de microondas están polarizados? Pues
sí. Y vamos a ver por qué.
Así como el mapa de la radiación de fondo presenta una serie de
anisotropías de brillo -temperatura-, también lo hace mostrando un
patrón de polarización. Anisotropías de brillo y de polarización que
fueron debidas a fenómenos diferentes. Ya sabemos el porqué de las
primeras, por lo que nos quedaría por analizar las segundas, que
también quedaron “congeladas” en el momento de la recombinación
y que nos van a dar indicación de la velocidad del movimiento del
plasma o de las ondas gravitatorias primordiales surgidas tras los
últimos instantes de la inflación exponencial del Universo.
La polarización de la radiación en el plasma inicial fue debida a las
interacciones con los electrones libres, dando lugar a dispersiones del
tipo Thomson a bajas energías. Estas dispersiones consisten en lo
siguiente:
La onda del fotón inicial lleva asociado un campo eléctrico
sinusoidal, el cual hará que el electrón cargado negativamente oscile
en el plano perpendicular a ese campo. Esta oscilación hace que el
electrón emita energía en forma de otro fotón, que oscilará en un
plano perpendicular al de como oscilaba el electrón. Lo cual quiere
decir que el fotón emitido estará polarizado en el plano del campo
eléctrico del fotón inicial. El fotón secundario siempre estará
polarizado, sean cuales sean las condiciones de polarización del fotón
incidente. Este proceso se puede comprender mejor viendo la imagen
siguiente que representa el esquema general de polarización durante
las interacciones Thomson.
184
(Imagen: Barbara Aulicino, I y C, diciembre 2005, fair use)
En el plasma primordial los electrones estaban bombardeados por
fotones que les venían por cualquier lado. Si todos esos fotones
hubieran sido de la misma energía, en las dispersiones Thomson el
electrón se hubiera visto movido de igual forma en todas las
direcciones y, como consecuencia de ello, los fotones dispersos tras
la interacción Thomson no iban a estar polarizados: sus ondas iban a
tener componentes en todas las direcciones.
185
Pero lo anterior no sucedería en el caso de que el electrón se
encontrara en una zona del plasma primordial en donde unos fotones
fueran más fríos que otros: entonces el electrón vibraría
preferentemente en el sentido fijado por los fotones calientes de
mayor energía. Por consiguiente, en esas regiones del plasma los
fotones dispersos quedaban polarizados.
Existen dos mecanismos que pueden producir esto último gracias a la
existencia de zonas con energías heterogéneas en su interior: los
flujos de plasma o las ondas gravitatorias. En los flujos de plasma a
velocidades relativistas, el electrón en su movimiento “ve” que le
vienen más rápidos los fotones que se le acercan por delante o detrás,
en la dirección de su movimiento, que los que le vienen por los lados.
A mayor velocidad de los fotones, mayor es su energía y la
temperatura. Luego estaríamos en el caso de que el electrón ve una
dirección principal en las interacciones con la radiación, por lo que
los fotones dispersos tendrán una componente polarizada. En el caso
de las ondas gravitatorias lo que sucede es que cuando pasa una de
ellas el espacio se estira y encoge, achatándose alternativamente a lo
largo de dos ejes ortogonales. Como consecuencia, los fotones que se
desplazan en estas dos direcciones ortogonales tendrán distinta
velocidad, y el electrón que interactúe con ellos, por las mismas
razones antes expuestas, entra en el proceso de emisión de un fotón
con una componente polarizada preferentemente en un plano.
188
2. Tomamos la máxima diferencia de temperaturas en campos de
0.4º, ΔTi, y sacamos su promedio, que será el dato para este ángulo
en la curva de anisotropías.
3. Esta circunstancia se aclaró en el capítulo 16.
4. Hablamos con un mayor detalle de este misterio en un capítulo
posterior.
5. Nos permite decir esto el hecho de que el tercer pico sume los
efectos del tercer armónico de la onda sonora, la cual es impar y
por tanto incorpora efectos compactadores de la materia.
6. Podéis preguntaros por qué en todo este reparto de la densidad
crítica no hemos tenido en cuenta el efecto de la radiación. ¿Y
todos los tibios fotones de la radiación de fondo? ¿Y todos los
energéticos fotones que se han generado en las estrellas tras la
recombinación? ¿Es que todos estos no aportan energía?
Curiosamente tenemos que decir que así es, su aporte energético
es despreciable frente al de la materia en sus dos vertientes y al de
la energía oscura. La aportación de los fotones de fondo es del
orden de 104 veces menor y la de los fotones de las estrellas incluso
aún diez veces menos: a pesar de su alta energía hay muy pocas
estrellas por unidad de volumen en el Universo.
7. En el plasma primordial, justo en los momentos antes de la
recombinación, una partícula debía recorrer hasta 10.000 años luz
antes de encontrarse y chocar con otra.
8. LIGO es un observatorio de detección de ondas gravitatorias. La
sigla proviene de Laser Interferometer Gravitational-Wave
Observatory -observatorio de ondas gravitatorias por
interferometría láser-. La primera observación directa de una onda
gravitatoria se produjo el 14 de septiembre de 2015.
189
20: La materia entra en faena.
190
aquella época. Tras el pequeño recordatorio de los dos primeros
párrafos anteriores, vamos a continuar el camino.
192
Posiblemente la materia oscura permea una gran parte del universo y,
aunque no sabemos de qué está compuesta, tenemos evidencias
indirectas de ella. Es lo que explicaría las incoherencias en las
velocidades de ciertas agrupaciones celestes. Una de ellas son los
cúmulos de galaxias -nuestra Vía Láctea orbita en uno de ellos, que
llamamos Grupo Local- en donde las más exteriores giran a
velocidades superiores a lo que les tocaría si allí sólo hubiera masa
bariónica. Otra pista la sacamos al observar las velocidades de giro
de las estrellas dentro de las propias galaxias, en donde las más
externas lo hacen de forma no coherente con la cantidad de materia
ordinaria visible. Otro fenómeno que nos permite detectarla es el
efecto de lente gravitatoria que ejerce “algo” desconocido en el
Cosmos, y que debemos suponer es la materia oscura, sobre la luz
emitida por focos que se encuentran detrás de ese “algo”. Así se ha
podido estimar que la vía Láctea tiene diez veces más materia oscura
que materia bariónica, o bien que incluso hay galaxias compuestas
prácticamente en su totalidad por materia oscura.
193
para hacer mil argumentaciones acerca de sus posibilidades. La
casuística que idea nuestra imaginación -y nuestras teorías- abarca
desde materia bariónica “caliente” -que se mueve próxima a la
velocidad de la luz, como pudieran ser los neutrinos escapados del
plasma al segundo de iniciarse el Big Bang- o materia bariónica “fría”
-agujeros negros, estrellas enanas marrones y cosas así que no
podemos detectar-[4], a la materia NO bariónica también de los dos
tipos desde “fría” a “caliente” -que pudieran ser partículas ligeras del
tipo de los axiones, neutrinos estériles[5] u otro tipo de partículas
masivas de interacción débil (WIMP’s), que incluyen a los
neutralinos-.[6]
194
De todas formas, bastante tenemos con averiguar dónde podemos
encontrar a nuestra familiar materia bariónica del Modelo Estándar,
la que sabemos que explica un escaso 5% de lo que hay en el universo
y que acompañó a la materia oscura cuando la clarificación de la
recombinación, para dibujar conjuntamente las estructuras del
universo que observamos hoy en día. Con la tecnología actual a lo
más que hemos llegado es a decir que del total de la materia bariónica
un 7 % está recluida en las galaxias -en la forma de estrellas,
planetas, medio interestelar…-. Más o menos un 5 % adicional están
formando gases arrojados por vientos y flujos de las galaxias, pero
atrapados en sus alrededores por la gravedad de la propia galaxia. En
aquellas zonas donde la materia oscura se ha concentrado más y se
han acumulado galaxias hasta formar un cúmulo de galaxias, hay
también atrapado un 4 % adicional de materia ordinaria a temperatura
de decenas de millones de grados y que podemos ver con los
telescopios actuales de rayos X.
196
vemos en el telón de fondo de la radiación de microondas, a unas
variaciones con respecto a la densidad media del universo de 10+2
para las grandes estructuras -los cúmulos- y a unas variaciones de
10+6 para las pequeñas estructuras como las galaxias.
En la figura de la página anterior se intenta hacer visual la idea de
cómo el horizonte acústico de la recombinación se proyecta hasta el
momento actual, 1.100 veces mayor, para dibujar el patrón de
galaxias y cúmulos que observamos hoy en día. La imagen, aunque
la de aquí arriba es una representación artística, no es una entelequia,
ya que esa circunstancia la hemos podido constatar con una gran
precisión gracias al mapeado tridimensional del universo que las
tecnologías modernas nos permiten confeccionar.
200
4. Ese tipo de “cuerpos” se les conoce como MACHO’s (de
su acrónimo en inglés: Massive Astrophysical Compact Halo
Object) u objeto astrofísico masivo de halo compacto. Un
MACHO es un objeto pequeño de materia bariónica que se mueve
por el espacio interestelar de manera aislada (no se encuentra
asociado a ningún sistema solar) y que emite muy poca o ninguna
radiación.
5. En este enlace a Wikipedia podéis ver en qué consiste tal
esterilidad de los neutrinos:
[http://neofronteras.com/?p=5261]
[https://eltamiz.com/esas-maravillosas-particulas/]
[http://www.sdss.org/]
201
9. Con la radiación de fondo el parámetro era la distribución de
diferencias de temperatura según tamaños de arco del cielo.
10. Realmente tenemos que decir que el parámetro ξ(Mpc2) indica
el número relativo de pares de galaxias separadas por una distancia
s en Mpc -megaparsec- con relación al número de pares que
saldrían bajo la suposición de que toda esta población estuviera
distribuida en el espacio de forma aleatoria.
11. Lo cual sería esperable si lo vemos de otra manera, ya que en la
profundidad de la edad del Universo había bastante menos
galaxias que ahora. Si las galaxias fueran en su mayoría muy
antiguas, la expansión del Universo desde las edades tempranas -
un factor 1.100 desde la recombinación- las habría separado
mucho, cosa que se detectaría en la curva, que estaría desplazada
hacia la derecha.
12. Las estrellas están agrupadas en tres tipos de familias. Las más
jóvenes son las de Población I y las más viejas de Población III.
Se diferencian no sólo en su edad, sino también por los elementos
químicos que las componen.
13. Ya veremos también qué es esto del “corrimiento al rojo” con
más detalle en un capítulo posterior, pero tiene relación con la edad
de la luz que recorre el Universo. A más edad, más corrimiento al
rojo. Hoy z=1.
202
21: La era de la gran oscuridad
203
A la izquierda un esquema del Universo con la capa del campo
profundo donde mira Hubble (Wikimedia, NASA, dominio público).
A la derecha una doble ampliación sobreimpuesta al campo
ultraprofundo: a partir de [A] una pequeña mancha de luz en la
esquina superior izquierda se ha ampliado [B] de forma que ahora
se ve minúsculo un punto rojo. La segunda ampliación [C] da idea
del sutil halo de luz que proviene de tal galaxia: UDFy-38135539,
la más profunda conocida por Hubble en un corrimiento al rojo Z
de 8,6, lo que corresponde a una edad aproximada de 500 millones
de años (Imagen montada a partir de varias de NASA, wikimedia,
dominio público)
Se cree que aún antes de la recombinación, cuando todavía no se
estaban juntando los electrones y los núcleos, ya se estaba gestando
la semilla de lo que luego sería la estructura de la materia oscura.
Como sabemos, eran momentos plasmáticos, por lo que materia
oscura y materia luminosa -la bariónica- debían estar entrelazadas, de
forma que así tuvieron que seguir tras la recombinación. Esta íntima
unión entre ambas materias tuvo de algún modo su reflejo en la foto
inaugural de los fotones que constituyen la radiación de fondo de
microondas. Ya desde estos momentos, y a partir del esquema que
dejaron las ondas sonoras del plasma, empezó a trabajar la materia
oscura, modelando lo que iba a ser la arquitectura futura del Universo,
hasta la actual. Por su gran abundancia, ella tuvo que ser la primera a
la que la gravedad obligó a formar agrupaciones arrastrando a su vera
a la materia bariónica. Conjuntamente empezaron a amplificar
aquellas pequeñas heterogeneidades que veíamos en la foto de la
204
radiación de fondo y que comparábamos con inapreciables
ondulaciones de una piscina.
206
materia se incrementó en k3, mientras que su zona con materia lo
haría en k3/x3. Un factor 1/x3 menos. O lo que es exactamente lo
mismo, su densidad de masa gravitatoria habría pasado a ser un 1/x3
mayor que la de la mayoría de su entorno en el Universo ¿Eso es
mucho o es poco? Pensemos en una x pequeña, por ejemplo 1,001.
En este caso y haciendo unos sencillos cálculos, en una unidad de
tiempo -la que define k- la zona con masa será un tres por mil más
densa que la mayoría del espacio circundante.[3] La rapidez del
proceso depende de la unidad de tiempo definida y del parámetro x
que acompaña a la masa.
De todas formas, casi podríamos decir que los tiempos del Universo
son inconmensurables para nuestra vara de medir humana. El efecto
realmente importante es que en estos puntos especiales la materia iba
paulatinamente aumentando su densidad. Podemos imaginar que al
cabo de mucho tiempo, cientos de miles de años, la densidad de la
materia se habría hecho inmensa en determinadas zonas comparada
con la “densidad” de la expansión. Iban apareciendo lo que
podríamos llamar unos protocúmulos de gases en donde la gravedad
podía hacer valer su poder. Su principal componente era la materia
oscura, de la que hemos dicho repetidamente en esta serie que
representa cinco veces más masa que la bariónica.[4] Entre los
componentes que formaban esta última ganaba por goleada el
hidrógeno neutro: un protón con un electrón “en órbita”. Los tirones
gravitatorios conjuntos fueron de tal calibre que la masa de materia
se pudo desacoplar de la expansión general del Cosmos. En el
espacio habían quedado regiones de materia con libertad como
para iniciar su compactación gravitatoria definitiva. En este
momento la energía oscura estaba empezando a ganarle la batalla a la
expansión. Ahí comenzó la formación de la estructura del Universo.
A los 100 millones de años desde el inicio ya se podían encontrar
nubes de materia oscura comprimida tan grandes como el sistema
solar, con la mayor parte de su masa en el centro. Poco a poco se
fueron agrupando más y más de esas nubes para formar cúmulos en
los que también la mayoría de la masa estaría en su centro. Por tanto,
la intensidad gravitatoria que se generaba era cada vez más potente.
Se cree que estaba reforzada por agujeros negros producidos por esa
207
misma materia oscura, cuyas semillas habrían nacido en la época de
la nucleosíntesis y que ahora se encontraban en el centro de los
cúmulos. Quizás algunos de ellos forzaron la creación de los
cuásares, una especie de ávidas galaxias que ya estaban activas en los
primeros millones de años tras el Big Bang. El más alejado de
nosotros en espacio-tiempo se trata de ULAS J1120+0641, que se
encuentra a 13.000 millones de años luz, es decir, lanzaba al espacio
sus ondas de radio ya a los 800 millones de años del Big Bang. Aún
más antigua es la galaxia GN-z11 que lucía unos 400 millones de
años antes… ¡prácticamente tras la recombinación!
209
anchas. Era cuando rayaba el primer segundo de vida del Universo.
La segunda imagen corresponde al plasma en estado “transitorio”,
podíamos decir. Los núcleos atómicos se habían formado y los
fotones peleaban con los electrones que aún andaban independientes.
Mil años tras el inicio y conformándose el patrón del horizonte
sonoro. En la tercera, el Universo a los cien millones de años, en la
plenitud de la época que estamos tratando en este capítulo. El factor
k/x de la materia ya había hecho sus diabluras. A la derecha una
imagen espacial de como andarían de revueltos materia oscura y
bariones.
211
hidrógeno le apetece parecerse en sus electrones a lo que tiene el
helio, es decir dos. Y para eso lo que hace es buscarse
un partenaire con el que compartir electrones para rellenar el
primer nivel. Dos hidrógenos lo harán con un oxígeno, y saldrá
como consecuencia una molécula de agua, H-O-H. Dos
hidrógenos se entenderán y formarán su molécula de H2, con una
energía de enlace de 4,52 eV. Imaginad su fortaleza cuando en
aquellos momentos la energía promedio del Universo rondaría las
centésimas de un electronvoltio. Para más detalles ver esa entrada
del blog “El Cedazo”:
[https://eltamiz.com/elcedazo/2014/11/16/quimica-organica-
introduccion-2-enlaces-quimicos/]
212
22: De la oscuridad a la luz
213
que apareciesen rápidamente moléculas del mismo elemento por
unión covalente de dos átomos.[1] Estos átomos y moléculas se
fueron progresivamente enfriando y ralentizando más. Entonces la
atracción gravitatoria de la materia oscura -que al no estar sometida
a la presión de la radiación comenzaba con sus inestabilidades
gravitatorias hacia la compactación sin que nada lo impidiera-,
conjuntamente con el empuje que se produciría en los choques con
los otros tipos de partícula, haría que los bariones de la materia
luminosa poco a poco fueran “cayendo” hacia los centros
supermasivos de los cúmulos de materia oscura, iniciando los
primeros esbozos de la estructura del Universo que vemos.”
El proceso que hemos explicado a grandes rasgos no debió ser tan
elemental. No todo fue frenarse y caer en el pozo gravitatorio, porque
todo tiene un límite. Al irse comprimiendo los grandes volúmenes de
masas -gases-, los átomos y moléculas de la materia bariónica se
tenían que ir acelerando dentro de un espacio cada vez más pequeño.
El mayor número de colisiones consiguientes, y con una mayor
energía en el choque, traía como consecuencia el que en estas zonas
la temperatura aumentase, y ya sabemos que a mayor temperatura de
la radiación mayor presión de tendencia expansiva dentro del gas.[2]
Por todo ello podemos pensar que poco a poco se iba generando un
potencial que se oponía a la compactación gravitatoria, llegándose
con el tiempo a un equilibrio entre ambas fuerzas: gravedad/presión.
No creamos, sin embargo, que la compactación siguió esta sencilla
regla general. En aquel “vacío”[3] amasijo de materia y radiación se
daban unas circunstancias que retardaban y otras que aceleraban la
congregación de las masas. Eso fue realmente importante, ya que
todo ese juego de pros y contras configuraron un determinado y
concreto patrón de densidades que, si no se hubiera alcanzado, no se
hubiera generado este Universo tan espléndido como lo vemos ahora,
con sus estructuras filamentosas y radiantes, llenas de galaxias y
estrellas, cuásares y agujeros negros.
Entre las “fuerzas del mal” para la densificación se encontraban los
campos magnéticos cósmicos. Este gran imán del Universo no
sabemos muy bien por qué está ahí. Quizás apareció en los inicios del
Big Bang como uno más de sus campos. Pero SÍ que actuaba,
214
aunque… ¿cómo? Forzando las trayectorias del movimiento de las
partículas ionizadas que estaban intentando congregarse formando un
cuerpo masivo. Y esas trayectorias, que se ajustaban a las líneas de
dichos campos magnéticos, no tenían por qué coincidir con las de la
“caída” gravitacional, directamente hacia el centro de masas. Debido
tan sólo a eso la compactación podía ralentizarse. Pero es que,
además, las partículas cargadas, al ser aceleradas por los campos
magnéticos de fondo, en su movimiento chocaban con las partículas
no cargadas, dificultando en una segunda derivada la compactación
gravitatoria. Pero…
…otro fenómeno físico trabajaba en sentido contrario. Básicamente,
lo que hacía era relajar la creciente temperatura que se iba
consiguiendo al incrementarse la compactación. Si la masa
comprimida por la atracción gravitatoria consiguiera no calentarse
tan deprisa, entonces tendría un margen más amplio en su camino
hacia mayores densidades, pues la antagónica presión de la radiación
empezaría a notarse más tarde. Realmente había un “ventilador
cósmico” que trabajaba en este sentido. Básicamente lo que hacía en
las zonas de progresiva acumulación era “ventilar” energía en forma
de fotones que podían abandonar el grumo de materia, con lo que así
ésta seguía un camino más suave de calentamiento. ¿De dónde
provenían estos fotones? En toda esta sopa, y aunque con espacios
vacíos tremendos, los átomos chocarían unos con otros, con la
consecuencia de que alguno de sus electrones orbitales ascendía a una
capa de mayor energía. Con el tiempo -más bien poco- volvían a su
querencia de un estado de menor energía: saltaban de nuevo a su
órbita inferior emitiendo fotones,[4] alguno de ellos refrigerante que
se perdía en el espacio lejos de la zona de conglomeración de materia.
Además, se daba otro proceso aún más eficiente, al que teóricamente
en física se le conoce como “excitación de un gas perturbado”. Tenía
relación con las moléculas de la sopa gravitatoria bariónica, que en
aquel momento en su mayoría era de hidrógeno. Esas moléculas
estaban sometidas a estrés de movimiento en un medio compacto
donde se está incrementando la temperatura, y en donde chocaban
unas con otras transmitiéndose energía y alterando continuamente sus
trayectorias. Algunas moléculas se salían de la disciplina que
215
Boltzman definió para un cuerpo negro, como lo era el cúmulo de
gas. Pero obligatoriamente tenían que volver a ella, y lo hacían
emitiendo fotones que aliviaban la tensión cinética. Eso era
precisamente lo que pasaba con nuestras moléculas de hidrógeno, que
así se travistieron en potentes refrigeradores de los protocúmulos.
218
fueran iguales en todos los puntos. Tampoco en todos los puntos el
ventilador de fotones actuaría con la misma intensidad, de tal manera
que no todas las masas de moléculas o átomos, en sus caminos de
agrupamiento, podrían ejercer parecidas resistencias a la oposición
que les ejercían la presión y la temperatura.
Dentro de estas grandes masas de gas comprimiéndose, y gracias a
sus particulares “ventiladores”, la temperatura se mantenía casi
constante mientras que la densidad se incrementaba terriblemente,
siguiendo un ritmo de la tercera potencia del factor de contracción
volumétrica. Las potenciales masas críticas de Jeans en su interior
iban disminuyendo. Y ya hemos dicho que no todas las zonas dentro
del gran cúmulo seguían el mismo historial. Algunas de menor
tamaño, distribuidas aleatoriamente en el espacio, alcanzarían antes
la condición de masa de Jeans, por lo que, aquí y allá, comenzarían a
verse subgrupos colapsando a su aire dentro de un núcleo gigantesco
que lo hacía a su ritmo desde hacía mucho. En los pequeños núcleos,
como una segunda derivada, ayudaría también en su proceso de
compactación esta progresiva mayor densidad diferencial con su
entorno, puesto que ello suponía un mejor blindaje frente a los rayos
ultravioleta -a mayor densidad, menor penetración- que pudieran
ionizar partículas en su interior. Ya sabemos que las partículas
ionizadas en conjunción con los campos magnéticos de fondo
dificultaban la compactación gravitatoria.
Así que inicialmente las zonas de grandes masas fueron las que antes
corrieron hacia posiciones de compresión. Como consecuencia, se
fueron formando los primeros cúmulos de la historia universal. Y, en
su interior, los pequeños núcleos de alta masa, con la que habían
conseguido la necesaria densidad para darles el diploma de
poseedores de masa crítica, tenían también ventajas en el proceso: se
aprovecharon de la compresión global de su entorno iniciando la suya
particular. Esto explicaría el por qué un gran cúmulo de gases no se
transforma en una gran estrella, sino en una familia de ellas que se
comportan como un conjunto. Todo en base a un proceso
autorregulado ya que las primeras estrellas en encenderse ionizaban
el cúmulo de gas con los energéticos rayos ultravioleta que generaban
en sus procesos internos de fusión. Eso hacía que la energía cinética
219
del gas disponible para nuevas estrellas fuera cada vez mayor, que es
lo mismo que hacer más difícil la compactación de nuevas masas
hacia nuevas estrellas. Sólo las primeras estrellas tendrían potencial
gravitatorio para deglutir la masa disponible en la nube. Por lo que en
cada cúmulo de gas sólo se daría a luz un número limitado de
estrellas. Un ejemplo de ello lo podemos ver en la imagen siguiente,
actual,[7] de la nebulosa Rosetta.
220
de conservación del momento angular.[8] Si disminuyes tu tamaño, tu
radio, como les estaba pasando a estos “minicúmulos”, se va a
producir un incremento de la velocidad de giro, por lo que cada vez
giraban más y más rápido, como peonzas dentro de los cúmulos de
materia oscura que las portaban. La rotación acelerada producía un
viento centrífugo de partículas que chocaban con las vecinas del
exterior, ejerciendo sobre ellas un influjo de ralentización en su
velocidad de caída gravitacional, en su apelmazamiento hacia el
centro. Era como si se fuera generando un huevo aislado en cuyo
interior la presión iba en aumento mientras que en su exterior todo
quedaba más relajado.
Sin embargo, la conservación del momento angular también podía ser
un elemento que impidiera la compresión. El momento angular del
conjunto no tenía que sobrepasar un determinado límite frontera, tras
el que los movimientos iban a ser tan violentos que no se conseguiría
la formación de estructuras. Tenía que aparecer algún fenómeno que
disminuyera la tensión de giro. Uno de los procesos que relajarían el
momento angular del conjunto sería la expulsión de grandes masas -
arrastrando parte de la energía de giro- fuera del sistema. Pero fue
más común, quizás por ser energéticamente más equilibrado, el
mantener gran parte del momento angular dentro del sistema,
siguiendo el procedimiento de que un pequeño grupo de
concentraciones de masa se agrupase solidariamente -la unión hace
la fuerza- contra el “enemigo”, manteniendo una dinámica de giro
conjunto alrededor de un centro común de masas: estamos hablando
por primera vez de lo que serían las semillas de las estrellas, que no
irían apareciendo dentro de la nube de gas solitarias, sino en
conjuntos de dos o más, lo cual aportaba un punto más de
redistribución del momento angular al permitir la rotación de ellas
alrededor de su centro de masas.
De forma que, con el tiempo, tras violentos cambios gravitatorios, los
modelos de cálculo nos dicen que se deberían ir consolidando
sistemas estelares en una proporción de 25 conjuntos triples por cada
65 dobles, dejando un resto de 35 estrellas solitarias como lo es
nuestro Sol. Tal como lo vemos hoy.
221
Todos estos procesos sucedían por primera vez cuando estábamos
llegando al año 150 millones desde el momento inicial del Big Bang.
Dentro de cada uno de los puntos calientes de este rosario que se
produjo en el Cosmos, la gran presión y temperatura, que llegó a
104K, forzaron la ruptura de las moléculas de hidrógeno y helio. Más
tarde, tan pronto como la temperatura alcanzó valores que lo
permitieran, estos átomos se ionizaron. En esos grumos todo volvió
a ser algo parecido al plasma original, la radiación ya no se escapaba
y volvía a ser esclava de la materia. Estos fueron unos momentos
críticos para nosotros, ya que estas circunstancias iniciaron, en lo que
iban a ser las primeras estrellas, los procesos de fusión a partir de las
moléculas de hidrógeno disgregadas. El Universo se abrió a la
posibilidad de enriquecer su nómina de elementos químicos… ¡qué
seríamos nosotros sin el calcio o el magnesio, el carbono y el
oxígeno.[9] Se estaban formando las primeras galaxias, esas que
creemos haber visto con el telescopio Hubble en los primeros cientos
de millones de años tras el Big Bang. Entre ellas la que conocimos en
el capítulo anterior, GN-z11. Dentro de ellas tenían que habitar unas
estrellas, aún no vistas, que se las conoce como de Población III,
mucho más masivas que nuestro Sol, supercalientes y que debieron
tener una vida fugaz, quizás unos 4 o 5 millones de años.
Lo “breve” de su existencia se explica ya que en aquel momento
prácticamente todo era hidrógeno y helio. Y sucede que a partir de
gases muy ligeros, lo que suponía densidades bajas, la compactación
sólo se consiguió, según nos dice el ya mencionado equilibrio de
Jeans, cuando acabó por reunirse la masa requerida como para que
por su cuantía se hubiera alcanzado el necesario poder gravitacional.
Y en las estrellas, incluidas las actuales, sucede que a mayor masa
comprimiendo se necesita una mayor presión para contenerla, y eso
solo puede ser consecuencia de una mayor viveza en las reacciones
de fusión en su interior. Y eso implica una quema de combustible
muy rápida y, por tanto, vidas muy cortas.
El proceso en su conjunto debió ser espectacular. A medida que se
iba compactando la nube de gas el ventilador de fotones iba haciendo
su papel, cada vez con mayor intensidad al irse incrementando la
temperatura de la nube que se apelmazaba. A lo largo de la larga
222
“caída gravitatoria” se cree que la mitad de la masa se transformó en
energía calorífica que iba siendo irradiada al exterior gracias a sus
mecanismos de enfriamiento, radiación que tenía que ser más intensa
a medida que la masas compactada alcanzaba más y más temperatura.
Durante un brevísimo instante de tiempo nuestro proyecto de estrella
brilló con una luminosidad infrarroja superior a la de 10.000 soles.
Luego llegó el momento en que comenzó la fusión nuclear, de forma
que este cuerpo de gas irradió nuevos fotones mucho más energéticos.
El conjunto debió de ser como un prolongado flash de luz que pasó
del no visible infrarrojo a un continuo espectro luminoso… y más.
Se había encendido la luz de las estrellas y el Universo, que hasta
entonces había sido oscuro, comenzó a ser un espectáculo de luz,
parte de la cual se encontraba dentro de la escala de frecuencias
detectables por un ojo biológico. Sí, efectivamente, entonces no había
ojos, lo cual no quita ningún ápice al esplendor del momento.
Aunque a la par algo iba sucediendo. Lo veremos en el siguiente
capítulo.
223
[https://eltamiz.com/elcedazo/2014/11/16/quimica-organica-
introduccion-2-enlaces-quimicos/]
2. Todo este lío proviene de que a las nubes de gas que se estaban
comprimiendo se les podía considerar como nubes de un gas
perfecto, en donde se cumpliría la ecuación de estado que
relaciona presión, volumen y temperatura de una forma muy
precisa, y de que normalmente la temperatura mide la energía
cinética media de las partículas.
3. Comentamos ya en el capítulo anterior cómo la densidad promedio
del gas era más débil que la de nuestra atmósfera terrestre a nivel
del mar en un factor de 108.
4. Fotones que incluso podrían reforzar este mismo proceso al chocar
con los electrones de los átomos del gas. Podemos pensar que lo
mismo podía suceder con los fotones de la radiación de fondo
salidos de la recombinación. Pero éstos, ya inicialmente “fríos”,
seguían su proceso de enfriamiento con sus ondas cada vez más
alargadas siguiendo la expansión, por lo que no podían participar
en el baile general del gas.
5. La energía térmica es proporcional a la velocidad de los átomos y
moléculas dentro del sistema de gases. A mayor temperatura,
mayor será la violencia entre los choques que se produzcan y
mayor la presión interna generada.
6. Como podemos ver al analizar la ecuación que fija la condición
con la que nos estamos manejando: que la energía gravitacional
sea mayor (>) que la energía térmica. La ecuación es la siguiente:
3/5 [GM2/R] > 3/2 [M/μmH] kT en donde M, R y T son
respectivamente la masa, el radio y la temperatura de la nube. Y la
masa, a su vez, es proporcional al cubo del radio.
7. Realmente la imagen que captamos ahora en la Tierra salió del
lugar donde se situaba la nebulosa hace 5.200 años. La radiación
de las estrellas jóvenes excitan los átomos de la nebulosa haciendo
que emitan radiación dándole esta sensación de brillo.
8. El principio de conservación del momento angular dice que si
el momento de las fuerzas exteriores es cero -lo que no implica que
estas fuerzas sean cero-, el momento angular total se conserva, es
decir, permanece constante.
224
9. Si queréis saber de este misterio os recomiendo leer la entrada, de
la que dejo más abajo el enlace, del blog “El Tamiz” que habla de
ello en el contexto de las supernovas de tipo II.
[http://eltamiz.com/2007/12/06/la-vida-privada-de-las-estrellas-
supernovas-de-tipo-ii/]
225
23: Mirando en el campo profundo
227
emisión en continuo, que dibuja una frecuencia preferida -un
máximo- que depende de la temperatura del emisor. La curva
siguiente refleja precisamente este fenómeno: si fuera el caso de que
representara las emisiones de una estrella que tiene gran temperatura,
ésta se orienta más hacia las frecuencias más próximas al azul que si
es más fría, con preferencia a las frecuencias del rojo. Nuestro Sol es
una de estas últimas, y su espectro se aproxima a la curva más plana.
De todas formas, así emiten la luz las estrellas o el resto de cuerpos
cósmicos, ya sean cuásares, galaxias o nubes de gas, que a través de
sus espectros nos proponen una gran cantidad de información.
230
No se acaban aquí las bondades que los astrónomos encuentran en la
espectroscopia. Lo vamos a ver al dar un paso más en la teoría, un
paso que nos va a llevar de la mano hasta otro subproducto fantástico
de la espectroscopia. A partir de este momento en nuestro relato
saldrá profusamente un concepto que se conoce como el
“corrimiento al rojo”.[5] No es algo misterioso o con tintes gore, o
que manifieste unas determinadas preferencias ideológicas.
Simplemente hace referencia a que la radiación emitida desde más
lejos -tiempo y distancia es lo mismo- hasta llegar a nosotros los
observadores, habrá tenido que recorrer durante más tiempo a la
velocidad de la luz el tejido de un universo que se va expandiendo.
Debido a esta expansión del tejido espaciotemporal que soporte la
onda de los fotones, su longitud también se habrá estirado, de forma
que cuanto más alejado esté el punto emisor, más amplia se habrá
hecho la onda. Esto tiene su consecuencia visible cuando analizamos
los espectros de frecuencia de la luz que nos viene desde un
determinado punto.
Si el cuerpo está junto a nosotros el espectro coincidirá con el teórico.
Por ejemplo, la longitud de onda de sus fotones azules que
observamos en el espectro medido estará en el entorno de los 470
nanómetros, que es la que corresponde a este tipo de color. Si este
mismo objeto luminoso que emite en esta frecuencia azul está más
lejos, cuando nos lleguen sus fotones tendrán una longitud de onda
mayor, su onda se habrá estirado. Particularizando para el caso de que
si desde que se emitió el fotón hasta que nos llegó, el Universo se ha
expandido en un factor de 10, este fotón de salida azul lo veremos
como un infrarrojo.[6] Esto les pasará indistintamente a las líneas
oscuras de los espectros de absorción o a las brillantes de los
espectros de emisión. Y en general, a medida que el cuerpo emisor -
o absorbedor- se aleja, las ondas se alargan y, por tanto, todo el
espectro parece como corrido hacia el espacio de las frecuencias del
rojo, con longitudes de onda más largas. Cuanto más lejos está el
emisor de la luz mayor será este desplazamiento hacia la frecuencia
de los rojos, circunstancia que se cuantifica mediante un parámetro
denominado z, que es ni más ni menos que el cociente entre la
cantidad de corrimiento y la longitud de onda “limpia”. Lo
entenderemos mejor ayudados por la imagen de más abajo.
231
Corrimiento al rojo de los huecos negros de un espectro de
absorción. Abajo el espectro visible de un supercúmulo de galaxias
distantes comparado con el de nuestro próximo sol (arriba). Las
flechas indican el corrimiento al rojo experimentado por la luz del
supercúmulo (Wikimedia: CC BY-SA 3.0)
El corrimiento al rojo y su parámetro z se utiliza para medir distancias
en nuestro universo. A mayor z, más alejado, y a menor z, más
próximo, según la siguiente relación aproximada para z’s menores
que 1: D =c.z/H, siendo D la distancia, c la velocidad de la luz y H la
constante de Hubble.[7] Con el espectro determinamos z, y con z
determinamos la distancia D.
Esta misma circunstancia de corrimientos de frecuencias se produce
en cualquier tipo de movimiento de masas emisoras de luz, aunque es
debida básicamente a otro tipo de fenómeno físico[8] conocido como
efecto Doppler,[9] y que detectaremos con nuestros espectroscopios.
Y todo ello nos va a permitir saber direcciones y velocidades de estos
movimientos. Así, por ejemplo, podremos detectar cómo gira una
galaxia espiral, ya que la luz de un extremo, supongamos que es la
que emite el brazo de la galaxia que se aproxima a nosotros, estará
corrida al azul, mientras que la del otro extremo de la galaxia, que se
aleja, estará corrido al rojo. Y esto es aplicable de una forma general
al movimiento de estrellas, galaxias, cúmulos… y otros objetos
cósmicos emisores de luz.
Composiciones, temperaturas, distancias, velocidades… todo un
cuerpo de conocimiento que nos ha desvelado la mayor parte de
lo que sabemos de nuestro Cosmos. Pero va siendo hora de acabar.
232
He encabezado este capítulo como “Mirando en el campo profundo”,
aunque después de haber escrito lo que he escrito pienso que quizás
realmente debería haberla llamado “El cebado de las estrellas nos
lleva de la mano a hablar de la espectrometría“. Me diréis… de
acuerdo, sí, realmente esto de los espectros de la luz es algo muy
curioso y valioso, nos has convencido, pero… venga, deja de dar la
brasa y vamos ya a la historia del Universo. Tenéis razón, pero… y
yo también aporto un pero… es que sin la espectrometría de la luz
ahora mismo estaríamos en los tiempos de Newton, viendo cómo
orbitan los cuerpos celestes en un cosmos que no llega más allá de la
Vía Láctea. La espectrometría ha sido nuestro brazo derecho, el
izquierdo y si me apuráis, también una pierna. Así que repetid
conmigo ¡Viva la espectrometría y el que la inventó! ¿Newton, con
su famoso prisma?
Dichas estas alharacas, ya no se puede decir más por hoy. Así que lo
dejamos para el siguiente capítulo en la que hablaremos de un nuevo
proceso cósmico que conocemos como la reionización, y de cómo
se pueden utilizar las técnicas explicadas en este capítulo para buscar
sus límites temporales, así como para determinar la geometría y
distribución de las grandes estructuras de nebulosas, gases y polvo
repartidas por el vacío del Universo.
[http://eltamiz.com/2007/09/06/la-vida-privada-de-las-estrellas-
las-entranas-de-una-estrella/]
234
24: La reionización
236
de esos estudios parece apuntar a la posibilidad de que, a pesar de la
densidad de rayos ultravioleta producidos en las galaxias mayores,
las galaxias pequeñas, muy numerosas, fueron las principales
responsables de la reionización. En una de las simulaciones se ha
podido observar cómo las galaxias más pequeñas y débiles, que
contenían 1.000 veces menos estrellas y masa que la Vía Láctea y
eran 30 veces más pequeñas, contribuyeron con un 30% de la
radiación ultravioleta durante la reionización. La explicación está
precisamente en su tamaño, que permitía a los fotones escapar con
mayor facilidad al espacio intergaláctico. El proceso de reionización
debió ser bastante rápido a escala temporal cosmológica, ya que se
supone que a los 300 millones de años tras el Big Bang el universo
estaba reionizado en un 20%. Doscientos cincuenta millones de años
después pasó a estarlo en un 50 % y en su totalidad a los 860 millones
de años del Big Bang.[3]
239
alteraciones que resultan más útiles para los cosmólogos es lo que se
conoce como líneas de emisión Lyman-α. Vamos a intentar
explicarlo.[6]
Pensemos que aún estamos en los momentos iniciales tras la
recombinación cuando aún no había llegado la reionización. El
espacio estaba lleno de mucho hidrógeno y menos helio. En este
mundo hidrogeniano en el que surgían las primeras estrellas, éstas
comenzaron a emitir fotones en un variado espectro de frecuencias.
Pero precisamente los de 121,567 nm (nanómetros: 10-9 metros) veían
el mundo como un imposible, ya que pronto caían en las garras de los
hidrógenos neutros. Y eso ¿por qué?
240
Llegó la reionización y desapareció el hidrógeno neutro ¿todo? NO.
En el Cosmos incluso encontramos grandes nubes de gases en donde
se ha refugiado. Y eso tiene su influencia, ya que con una pequeña
cantidad de átomos de hidrógeno neutro en la población de partículas
en el gas intergaláctico -incluso uno por cada 105 ionizados- ya se
nota su efecto de absorción en el espectro de las estructuras luminosas
distantes.
Las longitudes de onda más cortas que la Lyman-α de la luz emitida
por estos objetos lejanos, al irse expandiendo el Universo mientras
viajaban hacia nosotros los observadores, iban ampliándose y
alcanzando en algún momento y en algún lugar el valor de la
frecuencia Lyman-α. Si esto se producía en unas regiones en las que
hubiera hidrógeno neutro, que tiene una capacidad tremenda de
interactuar con este tipo de fotones, todas estas frecuencias quedarían
fuertemente absorbidas -anuladas-. De forma que en el tramo
ultravioleta del espectro de la luz de esos objetos -por ejemplo,
cuásares lejanos- se va a detectar una atenuación de la luz sobre la
teóricamente esperada debido a las absorciones causadas por el
hidrógeno neutro. A este “desierto” de luz se le conoce como la
depresión de Gunn-Peterson. En los espectros de los objetos
luminosos lejanos que ya lucían antes de la reionización parece que
debería observarse este efecto con mucha más contundencia que en
los espectros más próximos de después de ella. Es más, la existencia
de este “desierto” en un espectro se toma como el criterio que fija el
límite final de la reionización.
Las curvas de la página siguiente corresponden al espectro real de dos
cuásares. Uno de ellos -arriba- se encuentra en un corrimiento al rojo
z= 5.80, mientras que el otro -abajo- está más lejos, a z=6.28. En cada
uno de los dos el pico mayor corresponde a la frecuencia Lyman-α
1216 Å, y podemos observar que están muy corridos al rojo.[8] Si nos
fijamos en ambos espectros en la altura de los picos que quedan a su
izquierda, podemos comprobar que en el cuásar lejano prácticamente
han desaparecido comparados con los del cercano. Es el efecto Gunn-
Peterson que nos está diciendo: “por aquí anda la frontera del final
241
de la reionización, en z=6, cuando el universo tenía más o menos 900
millones de años de antigüedad”. Si ahí acabó el proceso, los
cosmólogos se atreven a postular que bien pudo comenzar cuando
z=10, cuando tenía un poco menos de 400 millones de años luz.
Parejo a lo que nos dijo el estudio de las polarizaciones.
243
244
Las tres imágenes anteriores corresponden al mismo espectro de la
luz que proviene de un cuásar del fondo del universo (en amarillo a
la derecha), aunque en cada una hemos particularizado un aspecto, de
acuerdo a la densidad de masas de gas interpuestas o al efecto de otros
cuerpos cósmicos.[9] En los recuadros en azul aparece el simple
cálculo que hay que hacer para realmente determinar la distancia a la
que se encuentran las nubes de gas o el cuásar, ya que el dato que
obtenemos de nuestras espectroscopias es la longitud de onda de las
líneas a partir de las cuales obtenemos los corrimientos al rojo.
Aunque es la incógnita, en nuestro ejemplo se ha optado por dibujar
el cuásar en z=3 y su luz llega hasta el observador actual (en azul a la
izquierda) atravesando varias nubes de hidrógeno neutro (en rojo) a
distintas z y una galaxia (en verde). El espectro que medimos es el
que dibuja la curva roja. En los cuadros numéricos podemos ver el
cálculo que nos dice cuánto se ha corrido al rojo la línea Lyman-α de
la luz del cuásar. Así, en el cuadro de arriba medimos 4863 Å como
la longitud de onda que corresponde a la Lyman-α del cuásar -es el
gran pico que se ve-, corrimiento al rojo que nos permite calcular que
se encuentra en z=3. A medida que la luz del cuásar va atravesando
las nubes de gas de hidrógeno neutro (ver imagen del centro), éste
absorbe los fotones de la excitación Lyman-α cuya longitud de onda
aparecerá en el espectro corrida al rojo en una determinada magnitud
dependiendo de la z de cada nube. Es el bosque de depresiones de la
parte izquierda de la curva. Más allá hay una galaxia más joven en
cuya composición hay elementos pesados que absorben también
frecuencias de luz del cuásar (ver imagen de abajo). Son los pozos
marcados como C IV (z=1) y Mg II (z=1) [en verde]. En resumen, la
posición de picos y pozos nos están indicando el corrimiento al rojo
y, en consecuencia, el lugar de las masas interpuestas y de la emisora.
Con eso damos acabada la información acerca de la reionización
acontecida en los primeros años de dominio de la materia en el
Universo. Lo dejamos jugando los primeros compases de definición
de sus estructuras, todo un mundo en evolución que seguiremos
analizando en el siguiente capítulo.
245
NOTAS DEL CAPÍTULO 24:
1. Podéis repasar la historia del denso plasma primigenio anterior a
la recombinación releyendo los capítulos 15, 16 y 17 de este libro.
2. Aunque los científicos siguen en la tarea. Gracias a los datos
conjuntos del telescopio Hubble y del Gran Telescopio de
Canarias, utilizando técnicas de lentes gravitatorias, se ha podido
descubrir y estudiar una primigenia galaxia -A370-L57- con un
núcleo de estrellas en formación de una edad en el entorno de los
10 millones de años -un 0,07% de la edad del Universo- cuyos
descubridores aseguran “… sus propiedades hacen de ella una
buena representante de la población de galaxias responsables de
la reionización cósmica.” Lo podéis ver en el artículo de
arXiv.org “SHARDS Frontier Fields: Physical properties of a
low mass Lyman-alpha emitter at z=5.75” de Antonio Hernán-
Caballero et al. (octubre 2017).
3. El estudio del que estoy haciendo referencia es “The birth of a
galaxy – III. Propelling reionization with the faintest galaxies”
de John H. Wise et al., publicado en la revista Monthly Notices
de la Royal Astronomical Society, 26-junio-2014.
4. Ahora ya con unas longitudes de onda muy grandes ya que desde
que se habían independizado en la recombinación -z=1.100- hasta
este momento del que hablamos con una z del orden de entre 20
y 6, el universo se había expandido -y por tanto la longitud de
onda de los primeros fotones- más de 1.000 veces, en plena franja
de frecuencias del microondas.
5. Los cuásares son objetos lejanos que emiten grandes cantidades
de energía. Se suponen que son agujeros negros que capturan
estrellas o gas interestelar formando una especie de galaxia,
proceso en el que se emite su intensa radiación. La palabra
cuásar es un acrónimo de “quasi stellar radio source” -fuentes de
radio casi estelares-.
246
6. Para una mayor información de las líneas espectrales y saber a
qué proceso físico corresponde eso de las emisiones Lyman-α, no
os perdáis la entrada “Qué es la estructura hiperfina” del blog
hermano “El Tamiz”:
[http://eltamiz.com/2014/10/20/que-es-estructura-hiperfina/]
7. Recordemos que ambos valores se correlacionan según Planck de
acuerdo a la siguiente ecuación: E=h/λ.
8. Å es igual a 10-10 metros. La longitud de onda visible roja está
sobre los 7000 Å.
9. Las imágenes se han obtenido a partir de “The Quasar
Absorption Line Group” de la New Mexico State University, fair
use.
[http://astronomy.nmsu.edu/cwc/Group/QALsims/]
247
25: La época de los cuásares
248
momentos de gran densidad galáctica debía haber en gran cantidad.
Entre los dos y tres mil millones de años tras el inicio se llegó al punto
álgido. Más allá, una vez reagrupada la materia y ensanchado el
Universo, se entró en una fase más estable, lo cual no quiere decir
que no se dieran los mismos procesos: se dan con menos intensidad
y los estamos observando.
Sabemos que los agujeros negros tuvieron su papel en los colapsos
gravitatorios iniciales con los que se iniciaron las estructuras del
Universo. Y que estaban ahí antes de que se cumplieran los primeros
500 millones de años. Gracias a satélites como el Hubble, que
investiga el campo profundo del Universo, y el satélite Chandra, que
hace sus prospecciones en la frecuencia de los rayos X, podemos
estudiar a los agujeros negros que se estaban formando en el
momento que estamos analizando. Comparando las imágenes de
ambos telescopios podemos concluir que la mayoría de las fuentes de
rayos X detectadas corresponden a agujeros negros supermasivos. No
sabemos mucho cómo se formaron, porque los que observamos están
a mil millones de años tras el Big Bang y son de masas hasta cien mil
veces la del Sol, por lo que sería difícil de explicarlos como colapso
de alguna estrella. Hay hipótesis que dicen que se generaron
directamente a partir de una reacción en cadena en grandes nubes de
gas, mientras que otras afirman que los agujeros negros se generaron
pasando por otros agujeros negros intermedios que, por fusión, dieron
lugar a los que vemos con Hubble y Chandra. Un reciente estudio de
la NASA parece decantar la primera hipótesis, sugiriendo que según
las observaciones obtenidas de los observatorios mencionados -
Chandra X-ray, Hubble Space Telescope y Spitzer Space Telescope-
se tienen evidencias de que al menos algunos de los primeros agujeros
negros se formaron directamente a partir del colapso de una nube de
gas, sin pasar por estadios intermedios.[1] Pero otro estudio del
Observatorio Chandra X-ray descubrió a NGC 6240, una galaxia con
un agujero negro binario en proceso de fusión. Aunque es una galaxia
muy cercana, los astrónomos piensan que el proceso fue similar a lo
que debió suceder en los primeros momentos. Fuera como fuere, los
249
fenómenos que los formaron estaban ahí desde el principio jugando
un papel fundamental en lo que estaba sucediendo.
250
Imagen del cuásar H 1413 + 117 obtenida por el telescopio en
rayos X Chandra. Aparece cuatro imágenes por efecto de lente
gravitatoria producida por alguna masa interpuesta entre el cuásar
y nosotros. Se encuentra en un corrimiento al rojo de z=2,56, más o
menos a unos 2.700 millones de años tras el Big Bang
(Imagen: NASA/CXC/Penn State/G.Chartas et al, uso libre no
comercial)
De hecho, gracias a estas tecnologías se están observando más
cuásares a grandes distancias -sobre todo entre mil y tres mil millones
de años tras el Big Bang- lo que demuestra que eran mucho más
numerosos en los inicios que hoy, cuando las primeras galaxias se
estaban formando en grandes cantidades, lo que ha hecho que algunos
hayan designado a esta fase como la época de los cuásares. Quizás
esta transitoriedad de la época cuásar es debida a que para que se
“ceben” e inicien y mantengan su actividad se requiere un agujero
negro inicial y materia abundante para que impulse la rotación en su
caída hacia dicho agujero. Pero las cantidades de materia necesarias
para fijar su actividad es tal que los cuásares sólo pueden brillar
durante un corto espacio de tiempo, unos pocos millones de años.
Para que durasen más se debía tener un “motor” más potente, tenían
que unirse algunos agujeros negros para generar un suficiente
251
potencial como para acumular la suficiente materia y cebar así al
cuásar. Quizás eso sucediera por fusión dentro de una galaxia joven
de varios agujeros negros pequeños que quedaron en su centro. La
época de los cuásares comenzó más o menos en un corrimiento al rojo
de z=6/7, es decir, a los 800 millones de años tras el Big Bang, aunque
tuvo su momento álgido, debido a los comentados procesos más
complejos que comportaban la fusión de varios agujeros negros, dos
millones de años más tarde.
De las masas de gases a los agujeros negros, y de ellos a los cuásares
para llegar a las galaxias. Hasta donde sabemos, el perfil de
nacimiento de las galaxias y sus características es bastante claro. Se
cree que hubo diez veces más galaxias por unidad de volumen al
inicio que las observadas ahora.[4] Además de abundantes,
estudiando la nómina de galaxias conocidas de una edad próxima a
los mil millones de años vemos que en promedio eran mucho más
pequeñas y de mayor luminosidad por unidad de masa -en la
frecuencia de los azules como corresponde a sus jóvenes estrellas-
que las galaxias actuales. También sabemos que durante los dos mil
primeros millones de años, las que se fueron formando contaban con
un número muy pequeño de estrellas. A partir de estas estructuras,
como si ya se hubiera acabado la materia prima a depredar, por fusión
entre ellas se llegó más tarde a las grandes galaxias que vemos hoy.
Aunque algunas de pequeño tamaño se escaparon de estos procesos
de fusión y canibalismo y aún podemos observarlas hoy en día.
Si estudiamos la función de luminosidad, es decir, la densidad de las
fuentes luminosas -las estrellas- en función de esta luminosidad,
podremos obtener datos precisos de cómo cambió la población de las
galaxias a lo largo del tiempo. Los astrónomos han hecho este análisis
en el intervalo 4<z<10 -reflejado en la figura de la página siguiente-.
En ella, el eje vertical indica la distribución de la población, mientras
que en el horizontal se trazan las luminosidades. Cuanto más negativo
sea más brillante es la galaxia. Y como el eje vertical está
representado en unidades logarítmicas, cuanto más negativo sea el
número, menor es su abundancia.
252
Curva que correlaciona en el eje vertical la densidad volumétrica
de las galaxias con su luminosidad en el eje horizontal (Imagen:
Bouwens, CC BY 3.0 US)
Dicho esto, la conclusión es que para cualquier época las menos
luminosas eran más abundantes que las más luminosas y que a altas
z -las más antiguas- las galaxias eran menos luminosas que las que
existieron más tarde. Lo cual no nos sorprende, ya que era de esperar
que las galaxias más brillantes fueran la consecuencia de la fusión de
galaxias menos brillantes y más pequeñas. Esto es coherente con lo
que piensan los astrónomos, que establecen la existencia de una
jerarquía de fusiones de galaxias en el proceso de su desarrollo.[5] Al
igual que las que vemos hoy en día, en su mayoría tendrían que
encontrarse dentro de cúmulos de galaxias, por lo que en aquellos
momentos era bastante probable todo tipo de interferencias y
colisiones. Esto no sólo afecta a sus formas, sino también al proceso
de generación interno de estrellas y de emisiones desde el núcleo
central. Los estudios de estas características -generación de estrellas
y emisiones- indican que las interacciones entre galaxias se dieron
con más intensidad hace mucho (para z mayores de 1), la mayoría, en
la proximidad de hace unos diez mil millones de años -3.800 millones
tras el inicio-.
253
A la izquierda, parte del campo profundo del universo fotografiado
por el satélite Hubble, en donde observamos evidencias “fósiles” de
cientos de galaxias a menos de mil millones de años tras el Big
Bang. A la izquierda hay una ampliación de alguna de ellas, más
bien cúmulos de miles de millones de estrellas muy próximas,
auténticas protogalaxias dispuestas a entrar en procesos de fusión
entre ellas. Aparecen de color rojo dada su lejanía y consiguiente
corrimiento al rojo de la luz de sus estrellas (Imágen: NASA, CC
BY 4.0)
Pero ¿qué sucedía dentro de estas galaxias? Ya sabemos que en las
nubes de gases del universo se iban condensando cúmulos con mayor
densidad de materia, algunos de ellos con las condiciones precisas
para encender la fusión nuclear en su interior y alumbrar así el
nacimiento de una estrella. Hoy en día aún podemos ver cómo sucede
este proceso en lugares como la “incubadora” de la nebulosa de
Orión, en donde unas familias de estrellas brillantes cohabitan con su
materia prima de gases todavía muy próxima a ellas. Creemos que en
los primeros millones de años del universo el proceso de creación de
estrellas en una galaxia pudo seguir un proceso cíclico: una nube de
gases se fusiona, aparecen estrellas jóvenes, su radiación muy
254
energética dispersa a la nube asociada en unos diez millones de años.
Estos vientos estelares, conjuntamente con ondas de choque
generadas en la explosión de supernovas, comprimen una nueva nube
de gases… y vuelta a empezar.
255
masas de materia oscura, agujeros negros que generaron los antiguos
cuásares cuando la materia bariónica ordinaria, cada vez más fría, se
frenó lo suficiente como para iniciar su “caída” hacia esos boquetes
del universo. Los cuásares se iban alimentando de los bariones más
próximos, permitiendo al resto de su población seguir con sus
procesos particulares de compactación que ya explicamos en
capítulos anteriores -desde la 20 a la anterior-. Se fueron generaron
cúmulos pequeños y galaxias de tamaño de los pocos miles de años
luz, estructuras que se iban sumando generando a su vez otras
mayores y más rutilantes. En el entorno de los dos o tres mil millones
de años desde el Big Bang la familia empezó a estabilizarse, entrando
en el régimen “normal” de nuestros días. Tenemos ya estrellas,
galaxias y cúmulos. Agujeros negros y cuásares.[6] Ahora bien, no
obstante la estabilidad alcanzada, tenemos un mundo en evolución
que seguiremos analizando en el siguiente capítulo.
256
supermasivo en el centro de la galaxia. Galaxias Seyfert,
cuásares, radiogalaxias o blázares son distintos tipos de galaxias
activas.”
3. Los cuásares son objetos lejanos que emiten grandes cantidades
de energía. Se supone que son agujeros negros que capturan
estrellas o gas interestelar, formando una especie de galaxia,
proceso en el que se emite su intensa radiación. La palabra
cuásar es un acrónimo de “quasi stellar radio source” -fuentes de
radio casi estelares-.
4. En el artículo “The evolution of galaxy number density at z < 8
and its implications”, publicado en la revista The Astrophysical
Journal en octubre de 2016 se estima que en la edad
correspondiente a un corrimiento al rojo de Z=8, 700 años tras el
Big Bang, el número total de galaxias sería de dos billones –
2×1012 -, una población mayor en un factor de 10 comparada con
la población de 1011 de ahora. El menor número lo podemos
atribuir a que se ha vivido un continuo proceso de fusión de
galaxias. Pero impresiona la disminución en la densidad ya que
para Z=8 el universo era ocho veces menor que ahora, por lo que
desde entonces el volumen se ha incrementado más de 500 veces
-83=512- y, en consecuencia, la densidad en número de galaxias,
teniendo en cuenta el factor de 10 de menos abundancia en la
población actual, ha disminuido en más de 5.000.
5. Para ver más acerca de los procesos de formación de las galaxias
podéis acudir a este artículo de Wikipedia:
[https://es.wikipedia.org/wiki/Formaci%C3%B3n_y_evoluci%C3
%B3n_de_las_galaxias]
6. En este enlace podéis encontrar un listado de los objetos
astronómicos más lejanos:
[https://en.m.wikipedia.org/wiki/List_of_the_most_distant_astro
nomical_objects]
257
26: Una pausa en nuestra historia: el Universo
a vista de pájaro.
258
El Universo seguía creciendo su tejido espacio-temporal. El campo
inflatón había dado un impulso tremendo, exponencial, al
crecimiento de aquella pequeña burbuja planckiana inicial. El campo
inflatón se había frenado cuando su energía ganada del vacío se había
convertido en materia y radiación, pero el universo siguió su ritmo.
Seguramente, gracias al influjo de otro campo que insuflaba presión
negativa interna al espacio-tiempo, que habría aparecido por un
procedimiento semejante al inflatón o al Higgs, alcanzando un
verdadero vacío -para él- con un nivel de energía mínimo. Einstein,
en una primera aproximación, había intuido que el Universo debía
refrenar la expansión que predecían las ecuaciones de la relatividad,
ya que para don Alberto éste tenía que ser estable y eterno. E ideó un
factor energético que modificaba la geometría del cosmos al controlar
259
la tendencia a la compactación de la gravedad. Le llamó la constante
cosmológica, y la nominó con la letra griega lambda, Λ.
Pero la idea no se ajustaba completamente a la realidad. Unas decenas
de años más tarde se descubrió -lo hizo el astrónomo Edwin Hubble-
que las galaxias se separaban unas de otras, y a mayor velocidad
cuanto más lejos estuvieran. Esto indicaba que la separación de
galaxias no se debía a su propia dinámica de cuerpo celeste, sino que
era el propio sustrato el que iba ampliando las distancias. El campo
Λ estaba estirando al espacio-tiempo, y para ello contaba con un valor
constante de energía en todos los puntos del universo de 10-12 eV. Y
en este caso constante quiere decir constante: a medida que va
creciendo sigue añadiendo 10-12 eV en los nuevos espacio-tiempos
recrecidos. Así lo observamos. El problema es que, según nuestros
cálculos teóricos, un campo cuántico de este calibre no debería tener
tan poca energía; la teoría exige un incongruente salto hacia mayor
energía, exige un factor multiplicador que pudiera ser de hasta
10120.[1]
261
de masa, en las distancias cortas donde se manejan, aún son más
objeto de la avidez de la gravedad que del desleír de la energía oscura.
Ahí están estas estructuras, empezando por la Vía Láctea que está al
alcance de nuestra vista en cualquier noche despejada. Ahí están,
perdidas en la infinitud después de seguir el patrón de anisotropías de
materia y energía liberada en el año 380.000 tras el Big Bang, cuando
se produjo la recombinación de núcleos y electrones.
Veamos ahora cuál es el cuadro marco de la dinámica del Universo
que acabamos de esbozar. Inicialmente, el Universo surge y vive a lo
largo de un periodo en el que domina la radiación sobre la materia:
las altas energías, o temperaturas, que es lo mismo, fijaban la
dinámica del tejido espacio-temporal y de todo lo que ahí pasaba. Con
el paso del tiempo y la progresiva expansión la temperatura
disminuyó y la radiación amplió su longitud de onda: se había hecho
menos energética. La caída de su energía era proporcional al
exponente cuarto del factor de expansión,[6] mientras que la materia
simplemente disminuía su densidad en un factor al cubo.[7] La
consecuencia es que llegó un momento en la carrera en el que la
materia aportaba más densidad de energía que la radiación. Junto a
ellas dos se encontraba la energía oscura intrínseca al propio tejido
espacio-temporal del Universo, que, al ser “pequeña” en aquellos
momentos frente a lo que sería después, apenas tenía incidencia sobre
la materia o la radiación. Ese momento en que la materia sobrepasó a
la radiación comenzó a tener lugar tan pronto como unos 300.000
años antes de la recombinación, que fue cuando el triunfo fue
definitivo. A partir de entonces fue la materia la que dirimió lo que le
pasaba al Universo. ¿Para siempre? Pues no, ya que ahí seguía la
modesta energía oscura insuflando hálito al creciente volumen del
universo, mientras la materia -y no digamos la radiación- diluía su
poder en la expansión. Y llegó lo esperado, el momento en que la
energía oscura ganó finalmente la batalla a la materia: eso pasó hace
unos 6.200 millones de años,[8] y tras este momento todo lo que vino
después, entre ello todos nosotros, quedó absolutamente
condicionado por dicha energía.
262
Gráfico que explica con claridad las distintas épocas del Universo y
los distintos personajes -y la variación de su influjo- dominando la
dinámica del Universo (Imagen: “Astronomy today” Fig 27.1, fair
use)
Ése es el Universo dinámico del que estamos contando su vida. Al
final del capítulo anterior habíamos llegado más o menos al año 3.000
millones tras el Big Bang. Es decir, en la figura anterior casi en el
borde de la zona roja, dispuestos a dar el salto a la zona verde. El
Universo había sobrepasado la efervescente etapa de la adolescencia,
dirigiéndose hacia una estable madurez. Es un buen momento para
ampliar lo que veníamos diciendo en el capítulo anterior cuando
explicábamos cómo era el Universo y cómo evolucionaban sus
estructuras primeras: en particular, hablaremos más de las galaxias.
263
2. En el capítulo19 de esta serie ya se habló sobre este reparto de la
masa crítica del Universo.
3. En el Universo encontramos a los fotones de la radiación de fondo
-tan “fríos” como a 2,725K- que aportan una energía en un orden
de magnitud cuatro veces inferior a la de materia y energía oscura,
y encontramos a los fotones resultado de los procesos de fusión en
las estrellas. Al ser el vacío del Universo tan enorme, estos últimos
fotones aún pesan menos que los anteriores. En concreto, una
décima parte de la radiación de fondo.
4. En el enlace de abajo se explica de una forma amena la
mencionada leyenda y las consecuencias a que se llegó:
[http://matematicascercanas.com/2014/03/10/la-leyenda-del-
tablero-de-ajedrez-y-los-granos-de-trigo/]
5. El valor de la constante de Hubble se va afinando continuamente
con el tiempo como podemos ver en esta dirección:
[https://en.wikipedia.org/wiki/Hubble%27s_law]
6. Un factor al cubo lo introducía la propia expansión, que diluía
volumétricamente a la población de la radiación, mientras que la
expansión de la longitud de onda era lo que lo subía al exponente
cuarto.
7. El que fija el propio aumento del volumen del espacio-tiempo
debido a su expansión.
8. Tenéis un cálculo de la fecha del cambio a una expansión acelerada
en la siguiente entrada de la web “La web de Física”:
[http://forum.lawebdefisica.com/entries/623-El-inicio-de-la-
expansi%C3%B3n-acelerada-del-Universo]
264
27: Un Universo de galaxias
266
1101, con un tamaño de unos 400 mil años luz, constituya una
pista que nos lleve a pensar que el proceso pudo quizá ser al contrario.
Sea como fuere, lo que es cierto es que los astrónomos tienen serias
evidencias observacionales de que las colisiones e interacciones entre
galaxias son muy comunes y que estos encuentros son los principales
procesos físicos que condicionan la evolución de las galaxias.
267
Las galaxias espirales presentan un núcleo central globular, rodeado
por un disco orientado más o menos en un plano. Las elípticas carecen
de este disco de gases y estrellas. En ambas la estructura globular
central está rodeada con mucho por un halo de materia normal, y todo
ello sumergido en un halo de materia oscura que realmente constituye
el mayor porcentaje de su masa, hasta un 90% del total. Además, la
mayoría de las galaxias gigantes, de los dos tipos, tienen un agujero
negro supermasivo en su centro, lo que posiblemente fue su semilla
inicial.
Tenemos que hacer una precisión acerca de la dinámica de la materia
oscura y su incidencia en la formación de las galaxias. Hasta ahora,
en toda la serie hemos afirmado que la materia oscura es la cocinera
básica de todo el guiso cósmico que observamos. Es cierto, y debió
de estar ahí con su influjo desde antes de la era de la recombinación,
cuando el Universo era un plasma caliente con unos flujos de materia
y presión que asemejaban una sinfonía sonora.[3]
269
en comparación a su tamaño, sino que más bien se produce una
mezcla progresiva de los componentes de las galaxias. De todas
formas tampoco es un proceso tan suave, ya que la fricción de los
gases entre las dos galaxias origina normalmente ondas de choque
que generan nuevas estrellas, mientras que, por el contrario, una parte
de las estrellas existentes serán lanzados al espacio exterior. El
resultado es que se llegará a formar un cuerpo único -una nueva
galaxia- en un estado estable. Si las galaxias que se fusionan son de
un tamaño similar y pequeño, lo más probable es que aparezca una
galaxia elíptica.[6] La mayoría de los encuentros galácticos se
produjeron para z -corrimientos al rojo- mayores de 1, antes de
cumplirse los 3.000 millones de años tras el Big Bang, cuando las
galaxias se encontraban más compactas, lo cual es bastante lógico.
Pero debemos pensar que, a medida que con el tiempo y la expansión
disminuye la densidad de galaxias, el número de aproximaciones,
encuentros y colisiones tuvo que ser menor.
Los astrónomos trabajan principalmente con tres tipos de
interacciones galácticas, agrupación fruto de simulaciones con
computadores contrastadas con las observaciones. Una primera sería
el caso de aproximación de dos galaxias, una con una masa mucho
más pequeña que la otra. La mayor canibaliza a la pequeña en un
proceso en el que el halo de la mayor interactúa con la menor,
haciendo que esta última inicie un baile en espiral sobre la grande
emitiendo hacia el exterior, en la dirección de la aproximación, parte
de sus estrellas -lo que se conoce como la cola de marea-. Un segundo
tipo de interacción galáctica se produce cuando una de ellas tiene
ligeramente menos masa que la otra. En este caso la menor puede
inferir en la mayor la generación de nuevos brazos de espiral y la
creación de nuevas estrellas. El tercer tipo corresponde a la situación
de encuentro entre dos galaxias comparables en masa y tamaño. El
choque, y las supernovas generadas en el subsiguiente episodio de
intensa creación de nuevas estrellas, hace que los discos se rompan y
que el gas de las galaxias sea expulsado al espacio intergaláctico.
270
Cuando todo se calma aparece una galaxia elíptica con un halo visible
en la frecuencia de rayos X.
272
Imagen del cúmulo Bala (1E 0657-56) (Imagen: X-ray:
NASA/CXC/CfA/ M.Markevitch et al.; Lensing Map: NASA/STScI;
ESO WFI; Magellan/U.Arizona/ D.Clowe et al. Optical:
NASA/STScI; Magellan/U.Arizona/D.Clowe et al., sólo para uso no
comercial, educacional o información)
Esos gigantes en la escala de estructuras del Universo, los cúmulos
de galaxias, son muchas órdenes de magnitud mayores que los
cúmulos de estrellas ya que se tratan de superestructuras cósmicas
formadas por miles de galaxias unidas por la acción de su gravedad y
de la materia oscura que las acompaña. El más masivo conocido se
trata de SPT-CLJ2106-5844 que tiene una masa del orden de
1,27×1015 masas solares. A unos cuantos pasos más allá se
encuentran los supercúmulos, que son estructuras más complejas
formadas por centenares o miles de cúmulos galácticos
interaccionando gravitatoriamente entre sí. Tenemos un ejemplo
cercano en el que participa nuestra Vía Láctea, una galaxia antigua
con 13.210 millones de años, que se encuentra en un cúmulo de
galaxias llamado el Grupo Local, en donde forman un vecindario de
unas 54 galaxias. El Grupo Local pertenece a su vez al supercúmulo
Laniakea, con unos 300 a 500 cúmulos de galaxias y cuyo tamaño es
de 500 millones de años luz.
273
Con lo dicho hasta ahora tenemos un nivel de conocimiento a la altura
de las galaxias agrupadas en cúmulos más o menos grandes. Las
galaxias son estructuras constitucionales clave, bisagra entre lo
grande y lo pequeño en un Cosmos repleto de materia y energía.
Galaxias repletas de estrellas de primera generación, las de Población
III. Hasta ahora sólo hemos visto que el Universo, durante la
nucleosíntesis, había dado a luz a mucho hidrógeno, menos helio y
unas pizcas de litio. Pero es evidente que a nuestro alrededor hay algo
más, vemos cosas de lo más diversas, desde conchas de moluscos
hechas de calcio, a centrales eléctricas consumidoras de uranio, o
clavos de ferroníquel. ¿De dónde ha salido esta variedad, todos los
elementos químicos que vemos a día de hoy? Este misterio es lo que
intentaremos analizar en el capítulo que sigue.
274
4. Pensemos en lo que pasa en la Tierra. En su superficie, para que
no se caiga una bala de cañón disparada paralela al suelo, habría
que imprimirle una velocidad descomunal para luchar contra la
elevada gravedad en este punto. Sin embargo, en el espacio hay
zonas de menor gravedad en la que incluso los objetos pueden
situarse a velocidad relativa cero con respecto a la superficie de la
Tierra, en posiciones que llamamos “geoestacionarias”.
Trasladando el fenómeno al caso de las estrellas de una galaxia,
éstas giran a mayor velocidad de lo esperado precisamente debido
a la gravedad suplementaria de la materia oscura.
5. Tenéis los datos en un artículo publicado en la revista Nature de
marzo de 2017, “Strongly baryon dominated disk galaxies at the
peak of galaxy formation ten billion years ago” de R. Genzel et al.
6. Se supone que cuando interactúan gravitacionalmente galaxias
enanas, al ser la masa final también pequeña no habrá suficiente
potencial gravitatorio como para “disciplinar” los movimientos
iniciales de las galaxias, con direcciones al azar, por lo que se
generaría una galaxia elíptica en vez de una galaxia espiral en
donde todos sus componentes tienden a girar sobre el punto
central.
7. Ojo, no nos despistemos: remarco que ahora estamos tratando de
agrupaciones de galaxias, y no de cúmulos estelares, que se
encuentran dentro de una galaxia.
8. A temperaturas típicas del orden de 107 a 108K.
9. La masa típica de un cúmulo de galaxias es de 1014 a 1015 masas
solares, pero su luminosidad es de solo 1012 veces la luminosidad
solar. Esos números nos dicen que atendiendo sólo al espectro
óptico se nos puede escapar grandes cantidades de masa. La masa
de la materia oscura.
10. Técnicamente, este equilibrio se consigue cuando entre los
elementos de un sistema se corresponde la energía potencial
promedio de los mismos con su energía cinética promedio, en una
275
relación de dos a favor de la energía cinética. En la teoría se le
conoce como el teorema del virial, y cuando un sistema llega al
equilibrio dinámico representado por este teorema se dice que está
“virializado”. Este teorema se usa en variadas disciplinas -en
particular la Cosmología- para calcular la energía cinética total
promedio de sistemas muy complejos en los que es muy difícil
obtener una solución exacta.
276
28: La fiesta continúa en las estrellas
279
seguramente eran, o fueron, portadores de estrellas de población III.
La estrella más lejana que conocemos, SDSS J0018-0939, en el
campo de la constelación de la Ballena, a 1.000 millones de años tras
el Big Bang, es ya de población II, puesto que observamos en ella
cierta metalicidad. El estudio de la galaxia más luminosa conocida,
CR7, situada en el campo de la constelación de la Osa Mayor, a 700
millones de años tras el Big Bang, parece asegurar que puede ser una
combinación de estrellas de población III y de otras estrellas
“normales”. Las primeras determinaron la emisión de rayos
ultravioleta de la galaxia -buenas candidatas para cebar la
reionización- y la emisión de gases hacia su periferia, con lo que
formó a su alrededor masas nebulares interestelares; mientras que las
segundas serían las que aportarían la mayoría de la masa de la
galaxia.[3]
280
en unas galaxias conocidas como “azul débiles”. Débiles por su
lejanía, aunque realmente serían muy brillantes. Serían galaxias
enanas con gran cantidad de grandes estrellas jóvenes, que emiten
preferentemente luz en el ultravioleta y el azul. Necesitábamos
frecuencias UV para la reionización que se estaba dando. ¿Por qué
estrellas grandes? Simplemente porque son precisas para explicar lo
que vemos. Y lo que vemos es que ya había estrellas con una cierta
metalicidad muy pronto tras la recombinación, estrellas de
población II. Antes de que aparecieran en el escenario estas últimas,
tuvieron que existir las correspondientes estrellas de población III que
generaran en su interior esta metalicidad, la que luego recibieron las
de la población siguiente. Pero el quid está en el poco tiempo que
hubo entre la recombinación y las de población II, lo que precisa la
existencia de estrellas primigenias III con una vida “nuclear” muy
rápida… y esto exige estrellas de gran volumen, tal como hemos
dicho, con unas masas de decenas o centenas de la del Sol. Las
estrellas muy masivas sufren un colapso gravitatorio mucho mayor
que el de las estrellas más pequeñas. Por eso, para contener su
tremenda gravedad, requieren que sus reacciones internas de fusión
sean muy potentes -muy energéticas-, lo que hace que se consuman
muy rápidamente. Los cien o doscientos primeros millones de años
tras la recombinación debieron estar dominados por este tipo de
estrellas, quizás con vidas menores a un millón de años.
Posiblemente en estas primeras estrellas ya se llegaron a sintetizar
átomos de carbono y de oxígeno. Y esto es significativo a la hora de
entender qué es lo que pasó después de la desintegración de las
estrellas de Población III. En las nubes de gases cósmicos el oxígeno
tiende a reaccionar con el carbono, dando CO2, y con el hidrógeno,
dando agua como resultado. Y tanto el CO2 como el agua son
moléculas que, al calentarse en los procesos de compactación para
formar nuevas estrellas, irradian en la frecuencia del infrarrojo,
enfriando la nebulosa de gases, con el resultado de que la
contrapresión gravitatoria de la masa que se compacta deberá luchar
con una menor presión de radiación interna. Y eso las estrellas con
281
oxígeno y carbono lo podían conseguir con un menor volumen. La
consecuencia fue que pudieron generarse estrellas de menor tamaño,
con unos procesos internos de fusión muy lentos. Así que estas
pequeñas estrellas de población II aún las podemos observar hoy en
día, incluso en nuestra Vía Láctea.
No obstante, también se generarían estrellas masivas, de entre ocho y
diez veces la masa del Sol, que durarían decenas de millones de años.
Tenían la masa adecuada como para generar en su interior nuevos
elementos, hasta el Hierro 56. Durante mucho tiempo se pensaba que
todas las estrellas de población II tenían que ser de baja metalicidad,
pero ya se sabe que esto no es cierto. En las galaxias, las estrellas de
población II del halo estelar son efectivamente de baja metalicidad,
pero las estrellas de población II del bulbo tienen metalicidades
relativamente altas, parecidas a la de algunas estrellas de población I
como el Sol. Así que la siguiente generación de estrellas, las de
población I, pudieron obtener su elevada metalicidad gracias a las
estrellas de población II, de las que algunas habrían generado en sus
procesos de fusión interna los elementos de menor número atómico,
hasta el hierro.
Algunas de ellas pudieron tener el tamaño necesario como para morir
como una gigante roja produciendo en el proceso una expansión de
sus gases, o bien hacerlo de forma más explosiva, como una
supernova. Hoy en día estos procesos explosivos son muy comunes
en estrellas con masas varias veces superiores a las del Sol: las
supernovas del tipo II. A partir de su muerte espectacular, ya que
explotan como una gran bomba, se crearon unas ondas de temperatura
y energía que se expandieron a grandísimas distancias alrededor de
un pequeño cuerpo residual. La energía fue tal como para iniciar,
tanto en los gases producto de la explosión como en la materia
intergaláctica que encontraban a su paso, una nueva cadena de
fusiones a partir de los elementos pesados que se habían ido
generando a lo largo de los millones de años en sus núcleos. El
resultado de estas transformaciones apocalípticas fue la generación
del resto de elementos que conocemos.
282
Nebulosa del Cangrejo, residuos de la explosión de una supernova.
En su centro quedaron los restos compactos -una estrella de
neutrones- en forma de un púlsar. Mientras que en los lejanos
alrededores es evidente lo que pasó con los gases que eran el
cuerpo de la estrella primera (Wikimedia: NASA, ESA, J. Hester y
A. Loll (Arizona State University), dominio público)
De ahí surge la certeza de que las estrellas de población II fueron
imprescindibles para generar los sistemas planetarios de las
siguientes estrellas, puesto que en ellos una buena parte de los
planetas interiores son de tipo rocoso, en cuya composición abundan
los elementos pesados: hierro, calcio, silicio, carbono, oxígeno,
aluminio… En febrero de 2014 se notificó el descubrimiento de lo
que puede ser la más antigua estrella observada de este tipo de
Población, la II. Se trata de SM0313, una estrella de la Vía Láctea a
una distancia de 6.000 años luz del sistema solar y con una
antigüedad que algunos aventuran en 13.600 millones de años (¡!). Es
muy claro que posee metalicidad de bajo rango que a todas luces
queda patente al estudiar su espectro: contiene trazas de carbono,
magnesio y calcio. E incluso hierro, en cantidades mínimas -siete
283
ordenes de magnitud del que posee el Sol-, que es lo que ha permitido
situarla en el tiempo como una estrella de Población II.[4]
La siguiente generación de estrellas fueron las de Población I.
Normalmente son estrellas jóvenes, que se encuentran habitualmente
en las galaxias espirales y, según sea su edad, se sitúan en ellas en
distintas zonas: las más jóvenes cerca del bulbo de la galaxia y las de
mayor edad alejadas de este centro. Ya hemos comentado que tienen
una alta metalicidad, la mayor entre la de las tres poblaciones de
estrellas. Apoyados en esta característica, hasta hace poco se pensaba
que la alta metalicidad les hacía las mejores candidatas para tener
sistemas planetarios, en especial los de tipo rocoso. Sin embargo,
gracias a la misión Kepler, se han encontrado este tipo de planetas
alrededor de estrellas con un amplio rango de metalicidades, e incluso
se han hallado planetas gigantes gaseosos que sorprendentemente se
encuentran agrupados alrededor de estrellas de alta metalicidad. Aún
hay mucho que aprender.
Una vez presentadas las tres poblaciones estelares, y antes de pasar a
desarrollar un poco más el tema de los sistemas planetarios, conviene
dar un último apunte sobre la biografía de las estrellas. En el capítulo
24 habíamos apuntado que las primeras galaxias fueron muy
abundantes y con estrellas jóvenes irradiando en la frecuencia
ultravioleta. Con el tiempo el número de galaxias descendió, y
pensamos que lo ha hecho en un factor de 20. Podemos extender la
misma curiosidad a las estrellas: ¿hay más ahora que antes? ¿Al
revés? ¿Cuál pudo ser la dinámica en su formación? Los astrónomos
hacen sus cálculos a partir de la luminosidad de las galaxias, lo que
les permite hacer una razonable extrapolación de la cantidad de
estrellas que las “habitan”. Desde las lógicamente escasas primeras
estrellas formadas se debió dar una escalada en su población hasta
alcanzar para corrimientos al rojo -z- del orden de 6 o 5[5] una meseta
que más o menos se mantuvo hasta un z=1.[6] A partir de entonces se
observa un progresivo declinar en el número de las estrellas. Así que
habrá que pensar que el Universo andaba más revuelto en el pasado
que en nuestros días.
284
Curva de la evolución estelar a lo largo de la vida del Universo. En
la parte de arriba referenciadas al corrimiento al rojo y en la parte
de abajo a la edad retrospectiva del Universo desde hoy (SFR=
Star Formation Ratio) (Imagen a extraída del curso on-line “El
Universo en formación”, por el profesor S. George Djorgovski,
CALTECH, fair use)
Pero sigamos con nuestro relato, ahora hacia los sistemas planetarios.
Una galaxia espiral que nos es muy familiar es en la que vivimos,
nuestra galaxia la Vía Láctea. Se formó hace 13.210 millones de años,
a partir de un colapso gravitatorio. En ella nació nuestro sistema solar
hace unos 5 mil millones de años, también a partir del colapso
gravitatorio de una nube molecular en donde predominaba el
hidrógeno neutro. En su centro se halla una estrella, el Sol. Es una
estrella de población I. Estable, a la que aún le quedan por delante
otros 5 mil millones de años de vida. Tiene su sistema planetario, y
estamos seguros de que no es de los más viejos, ya que sabemos que
285
en el universo había planetas desde una época temprana. Gracias a la
misión Kepler se ha encontrado el sistema planetario más antiguo
conocido por ahora. Tiene 11.200 millones de años de edad, a 2.600
millones de años del Big Bang. Se trata del sistema planetario de la
estrella Kepler-444, que se encuentra en nuestra galaxia a solamente
117 años luz de distancia de nosotros. Lo que sabemos por ahora nos
habla de 5 planetas rocosos más pequeños que la Tierra.
287
remolinos secundarios, dentro del disco giratorio. Estas últimas
podrían ser producidas por el paso de ondas de presión resultado de
la explosión de supernovas cercanas. Los modelos estudiados indican
que el primer proceso es muy lento y el segundo mucho más rápido.
Y la velocidad importa, ya que lo que realmente se ve al observar el
espacio es que las nuevas estrellas pierden su disco original en un
periodo de 10 millones de años en promedio. Cualquier planeta que
no se haya formado en este tiempo ha perdido el tren.
289
los dispersarían. De forma que la acreción gravitatoria en la parte
interior del sistema iba generando planetas rocosos, mientras que en
el exterior planetas gigantes gaseosos.
Llegados a este punto del relato, cuando ya han aparecido todos los
actores principales, no nos queda más que explicar cómo es el
escenario, cual es el ballet cósmico que representan, cómo se
distribuyen a través del espacio-tiempo. Así que el siguiente capítulo
lo vamos a dedicar a observar las magníficas estructuras luminosas -
¡y oscuras!- que atraviesan el vacío cósmico de nuestro Universo.
290
de unos 6.000K- lo que quiere decir que las partículas más ligeras
de este plasma, protones y electrones, pueden saltar al exterior e
independizarse, iniciando un largo viaje a velocidades próximas a
la de la luz. En nuestro sistema ellos son lo que llamamos viento
solar.
291
Universo 29: La estructura del Universo
hoy
Con lo dicho hasta el capítulo anterior parece que ya podríamos echar
el cierre a la biografía del Universo. Habían pasado más o menos
13.800 millones de años desde aquello que creemos fue una excursión
cuántica desde el vacío, una inestabilidad de energía que logró
escapar del principio de incertidumbre con la ayuda de la gravedad.
Poco más tarde pasó por un episodio tremendamente expansivo en el
que su tejido creció a velocidades mayores que la de la luz, durante
el que se recargó de energía. Esta energía se convirtió en materia y
radiación y aún le quedó impulso que dura incluso a día de hoy. En
el camino se formaron átomos y cúmulos de materia que devinieron
en galaxias y estrellas. Perfectamente ordenadas, según los patrones
que fijó la inflación. La historia de nuestra Universo está acabada,
pero procede explicar cuál es el grupo escultórico que podemos
contemplar hoy, poso del paso dinámico de lo sucedido. Vamos a ver
cuál es la estructura que el Universo presenta a nuestros ojos.
292
Aquí está nuestro personaje: EL UNIVERSO. Tamaño observable:
93.000 millones de años luz en diámetro. Temperatura media:
2,725K. Volumen observable: 1,09 x 1079 m3. Densidad de energía:
0,846 x 10-29 gr/cm3. Masa: 9,27 x 1052 kg.
Podríamos pensar que el Cosmos de hoy tendría que estar lleno de
materia distribuida de forma muy homogénea. Y sin embargo, como
así lo sugiere la bella fotografía anterior, somos capaces de observar
que hay una estrella por aquí, un cúmulo por allá o un agujero negro
por el otro lado… ¿dónde está la homogeneidad?
¡La hay!… se trata de una homogeneidad en un inmenso vacío. A
pesar de que veamos mucha materia estelar en los cielos nocturnos,
no deja de ser una percepción de nuestras más próximas cercanías: la
Vía Láctea. Más allá de ella hay más vacío que materia, concentrada
en un promedio de ¡medio protón por cada metro cúbico de un
espacio mareante!
Allí, en el frío de la “nada”, la materia se estructura de forma muy
ramificada, dando la impresión de seguir un esquema jerarquizado:
un conjunto de vacíos gigantescos, similares a una espuma de pompas
de jabón, separados por láminas de mayor o menor espesor y
filamentos, rosarios de cúmulos de galaxias en los que, de vez en
cuando, aparece un supercúmulo, un nodo relativamente denso.
Grandes Murallas, Grandes Vacíos y Grandes Atractores, una
panoplia variada de realidades cósmicas.
Pero en conjunto, a escalas suficientemente grandes -del orden de
más de 300 millones de años luz-, el Universo es homogéneo e
isótropo. Mires hacia donde mires y desde cualquier punto que mires,
verás siempre la misma estructura: la de la imagen anterior, rielada
por hilachas etéreas y fantasmales. Una Santa Compaña de luminares
siderales. En la distancia corta siguen unos patrones de agrupación,
con una escala estándar de unos 480 millones de años luz que se
repite, traslación a día de hoy del horizonte acústico dibujado en la
imagen primera de la radiación de fondo. Vamos a hacer un recorrido
por esas estructuras, comenzando por lo más “pequeño”.
293
Modelo de la estructura del Universo. Así debe de ser en la
realidad (Imagen: Springel et al. (2005), The Virgo Consortium for
Cosmological Supercomputer Simulations, fair use)
Y lo más pequeño son las estrellas, muchas de ellas con sistemas
planetarios. Están situadas normalmente dentro de configuraciones
que conocemos como galaxias. Pero en ellas suelen presentar unas
subagrupaciones que conocemos como cúmulos estelares, que
pueden ser globulares o abiertos. Los primeros son agrupaciones
densas de centenares de miles o millones de estrellas de más de mil
millones de años de edad, mientras que los cúmulos abiertos son más
inestables y contienen generalmente centenares o millares de estrellas
más jóvenes. Eso sí, como toda clasificación, tiene sus excepciones.
Los cúmulos estelares ayudan a comprender la evolución estelar, ya
que no dejan de ser agrupaciones de estrellas formadas en la misma
época a partir del material de una nube molecular.
Tras las agrupaciones estelares debemos seguir por las galaxias,
refugio de cientos de miles de millones de astros y de sistemas
planetarios. Tienen formas geométricas muy variadas, pudiendo
adoptar una geometría espiral -entre ellas también las hay anulares-,
elíptica -o globular- e incluso irregular. Tienen un tamaño variable,
294
entre unos cientos y algunos millones de años-luz de diámetro. La
más pequeña que conocemos es M60-UCD1, con 160 años-luz de
diámetro y la más grande, IC 1101 de Virgo, con 5,5 millones de
años-luz de diámetro.
Las galaxias están ligadas gravitatoriamente entre sí, formando
estructuras de orden superior a las que conocemos como
agrupaciones galácticas. Las hemos clasificado en tres tipos,
dependiendo de su tamaño y el número de galaxias que contienen.
Así tenemos los pequeños (a) grupos, con unas decenas de galaxias y
tamaños de unos 6 millones de años luz. Les siguen por tamaño los
(b) cúmulos, que pueden agrupar desde 50 a 1.000 galaxias, dentro de
un gas caliente emisor de rayos X y con gran cantidad de materia
oscura que condiciona decisivamente su dinámica. Su tamaño
estándar es de unos 24 millones de años luz. Más grandes aún son los
(c) súper cúmulos, en cuyos tamaños se diluyen el de las galaxias,
siendo sus unidades más elementales los grupos y los cúmulos
galácticos.
Enfoquemos la mirada en nuestro caleidoscopio hacia unos ejemplos
que nos ampliarán el conocimiento de estas estructuras. Por la
evidente curiosidad que produce en nosotros, los habitantes de la
Tierra, qué mejor que hablar de nuestro universo más próximo.
Nosotros vivimos en un lugar irrelevante dentro de todas estas
estructuras. Nuestra galaxia, la Vía Láctea, deambula por el Grupo
Local, que está dominado por tres matriarcas, tres galaxias espirales
gigantes: Andrómeda, la propia Vía Láctea y la Galaxia del
Triángulo. El resto, unas 30, son más pequeñas, siendo muchas de
ellas galaxias que giran alrededor de una de las mayores. El conjunto
orbita alrededor de un punto situado entre Andrómeda y nuestra
galaxia.
El Grupo Local deambula perdido dentro del Cúmulo de Virgo, en
el que hay una mezcla heterogénea de galaxias espirales y elípticas
que posiblemente suman hasta un número de 2.000. Se cree que
dentro del cúmulo la distribución de las de tipo espiral adquiere la
forma de un filamento que es aproximadamente cuatro veces más
295
largo que ancho; mientras que las galaxias elípticas se encuentran
más concentradas en el centro del cúmulo. Su estructura interna es
muy variopinta, ya que agrega varios subgrupos diferentes, algunos
de ellos en proceso de fusión. Además, también tiene muchas
galaxias satélite situadas relativamente cerca, que seguramente en el
futuro acabarán por ser definitivamente atraídas por la gravedad del
Cúmulo de Virgo. El medio intergaláctico está formado por
un plasma a muy elevadas temperaturas en donde se encuentra,
además de un número relativamente elevado de estrellas -incluso
formando cúmulos globulares-, nebulosas planetarias formadas por
plasma y gas ionizado, expulsados en los últimos momentos de la
vida de estrellas gigantes rojas.
296
Demos un paso más en la escala de tamaños en nuestro universo local.
Galaxia Vía Láctea, Grupo Local, Cúmulo de Virgo y… ¡cómo no!
El Supercúmulo de Virgo, o Supercúmulo Local, que contiene a
todas las anteriores y mucho más: hasta 100 grupos y cúmulos de
galaxias. Nuestro Grupo Local está localizado en las afueras de este
supercúmulo, en un pequeño filamento que se extiende desde
el Cúmulo de Fornax al Cúmulo de Virgo, posiblemente dentro de
otro supercúmulo, el de Laniakea, que se encuentra junto al de Virgo.
297
información, entre otra, el lugar de la galaxia con respecto a nosotros
y la velocidad de alejamiento con respecto a nosotros. Procesando
estos dos datos se puede obtener la densidad local de galaxias en el
Universo y la velocidad real de movimiento de cada una de ellas
sobre el campo de referencia que suponen los fotones de fondo en
microondas. Todo ello permite a los astrónomos determinar la forma
geométrica de los campos de potencial gravitatorio y de velocidades,
así como las líneas de flujo de movimiento de las galaxias por el
Universo. La imagen anterior, nuestro particular supercúmulo de
familia, es uno de los resultados espectaculares de este tipo de
estudios (recomiendo el vídeo al que dirige la nota en la leyenda de
la figura anterior). Con estas técnicas se ha logrado detectar un patrón
de densidad y flujos de movimiento local que permiten definir un
entorno con su particular interrelación gravitatoria, que corresponde
a lo que hemos nominado como Laniakea.[2]
300
de años luz en su mayor dimensión -que representa aproximadamente
un noveno del diámetro del universo observable- por 7.200 millones
de años luz en la otra. Lo que constituye la estructura más grande y
más masiva conocida en el universo observable.
301
Pero, si a pesar de todas estas estructuras masivas seguimos diciendo
que el universo es homogéneo a grandes escalas, es porque hay más
vacío que materia. En nuestras esponjas cósmicas hay más huecos
que paredes. Y se les conoce como Vacíos, en donde encontramos
muy pocas galaxias. O quizás ninguna. Los vacíos más grandes, los
supervacíos, están situados en los espacios de baja densidad del
Universo y pueden ser de unos tamaños del entorno unos pocos
centenares de millones de años luz. Se cree que los vacíos se
formaron en los procesos de las ondas acústicas generadas tras el Big
Bang. Recordad del capítulo 18 cómo la masa bariónica en el plasma
primordial era desalojada de los pozos gravitatorios de la materia
oscura por la gran presión de la radiación, y vueltos a recuperar en
parte por la misma materia oscura. En los movimientos de impulsión
y colapso de estas masas de materia bariónica se produjeron las
semillas de los vacíos. Lo que observamos ahora es el exterior de
aquellos huecos primordiales rodeados de materia, que quedaron
congelados en el momento del reagrupamiento de núcleos y
electrones y que la expansión continua del universo nos ha traído
hasta hoy en forma de superestructuras.
302
Justo en las cercanías de nuestro Grupo Local tenemos al Vacío…
Local, ¡cómo no! Es de tamaño medio, a pesar de que tenga unas
dimensiones, según en la dirección donde se mida, de unos 230 a 150
millones de años luz ¡Y sus paredes se abren a una velocidad de 260
kilómetros cada segundo! Como podréis imaginar, un derroche de
“nada” … aunque no del todo. Porque no le llega a la altura del zapato
al Vacío Gigante, una burbuja de 1.000 o 1.300 millones de años luz
de diámetro, dentro de la cual hay una región esférica de unos 160
millones de años luz de diámetro en donde andan “flotando” hasta 17
cúmulos de galaxias que, dada la baja densidad del “agujero”, no
interactúan gravitatoriamente entre ellas. Por eso lo de “flotando”. No
se acaba aquí las megalomanías del Cosmos. En 2013 se publica la
existencia de algo aún más grande, una gran esfera de baja densidad
de unos 2.000 millones de años luz de diámetro, a la que, en honor a
sus descubridores, se le llama Vacío KBC.[5] Nos cabe el honor de
que vivimos en ese vacío.
¿Será KBC el fin de la lista? No creo… la película puede continuar
porque el Universo no dejará nunca de sorprender a los humanos.
Vamos a acabar esta descripción del museo de las cosas terroríficas -
sí, ya sé que no son terroríficas, pero sus magnitudes me sobrecogen-
con dos últimas curiosidades que nos regala la observación de nuestro
Cosmos. Son aspectos muy particulares pero que nos permiten ver la
riqueza de formas con que nos lega la dinámica del Universo. Y quién
sabe si estas formas particulares no son tan particulares y se repiten
a lo largo y ancho del espacio.
La primera se trata del Supervacío de Eridanus, o Punto Frío del
WMAP o del CMB, que tiene unos 1.000 millones de años luz de
diámetro. Con estos nombres podríais imaginar que es “algo” puesto
en el escaparate del mapa de la radiación de fondo de microondas -y
así aparece en su fotografía-. Se trata de una región del Universo que,
tras su análisis, resultó ser extraordinariamente grande y fría en
relación con las propiedades esperadas de la radiación de fondo de
microondas (CMB). Primer misterio: Las fluctuaciones térmicas de
303
la CMB -con temperatura promedio de 2,7K- son de
aproximadamente 10-5K y la temperatura de dicho supervacío es de
70 µK, mucho más frío que dicho promedio. Segundo misterio: el
supervacío abarca unos 5º en el cielo, siendo así que generalmente la
mayor de las fluctuaciones primordiales de temperatura del CMB se
produce con escalas angulares de alrededor de 1°. El Vacío de
Eridanus no encaja bien en nuestros modelos teóricos. Hay dudas y
se especula que bien pudiera ser causado por algo más cercano, algo
que se interpone en el camino de los fotones de fondo en su viaje
hacia la Tierra
305
Modelado de las estructuras del Universo -en donde se encuentra el
dipolo atractor-repeledor de Shapley- dentro de un rango de 2.500
millones de años luz. Las flechas indican el campo de velocidades
de desplazamiento de las galaxias. En rojo y gris los nudos y
filamentos de la red de estructuras respectivamente. En verde y
amarillo las superficies de isopotencial gravitatorio, que
incorporan en amarillo al repeledor del dipolo y en verde al
atractor de Shapley. Un punto rojo en el centro corresponde a la
posición de la Vía Láctea (Imagen: Yehuda Hoffman et al., Nature
(enero 2017), fair use)
Y la causa de la sorpresa se desveló. El mismo estudio en las
frecuencias de rayos X nos dijo que en esa misma dirección, a 650
millones de años luz, existe otro gigantesco cúmulo de galaxias que
tiene una masa equivalente a unas 1016 masas solares. A este grupo
de galaxias se le bautizó como el supercúmulo de Shapley. Y aunque
ya sabemos que el Complejo de supercúmulos Piscis-Cetus tiene una
masa cien veces mayor que Shapley, hay que reconocer que este
último no está del todo mal. Se trata de la más grande concentración
de galaxias en el universo cercano que forman todas ellas una familia
de interacción gravitacional, lo cual implica que las galaxias se atraen
entre sí en lugar de expandirse con el universo. El análisis de los datos
obtenidos sugiere que sólo el 44% de la aceleración que sufre nuestra
306
galaxia en esta dirección es el resultado del tirón gravitatorio de las
galaxias que se encuentran en los dominios de Gran Atractor, y que
lo que realmente está tirando de todo nuestro vecindario cósmico es
el Supercúmulo de Shapley, que está a su vez ayudado por la acción
misteriosa de repulsión de una zona de baja densidad, el Dipolo
Repeledor, que se encuentra más o menos en sentido contrario y a
una distancia parecida.[6] De forma que la atracción de uno es
semejante a la repulsión que ejerce el otro.
La atracción egocéntrica de Shapley parece insinuarnos una fuerza
singular, en donde todo se va a sublimar en un punto que concentre
el recuerdo de lo que pasó. No hay más, y es la excusa adecuada y
perfecta para plantear el hito final de nuestra historia. Desde un
planeta como la Tierra a una gran muralla; desde la distancia de Plank
a la inmensidad de un incompleto Universo observable; desde hace
13.800 millones de años a hoy en día; desde el vacío cuántico a 10-29
gr/cm3 de densidad de energía, … la maravillosa historia del Cosmos
que, gracias a la sorprendente curiosidad de unos hombres, cuyo
cerebro de kilo y medio sonríe ante la visión de los estratosféricos
9,27 x 1052 kilos de materia del Universo, se nos ha permitido
conocer.
Aquí sí es el fin. El fin de una historia de hechos físicos -a veces la
ignorancia nos dice que también puedan ser matemáticos- pero que
tiene más poesía que la que surge espontáneamente al contemplar el
mar de luces cósmicas en la noche.
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
“Solo el cielo sabe por qué lo amamos tanto”
(Wirginia Woolf)
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
Cuando volvamos a elevar la mirada a la profundo bóveda celeste ya
no nos vamos a conformar con ver simplemente lo que nuestros ojos
aprecian. Pensaremos que todo un piélago de materia desconocida
para nosotros, la materia oscura, nos contempla. Cerraremos unos
307
instantes nuestros párpados e imaginaremos la gran nube negra que
rodea a cada punto luminoso, sin la que éste no existiría. Un mar aún
mayor de energía oscura que tira y tira dilatando las carnes del
soporte de nuestras existencias. Unos océanos de fuegos y gases
respondiendo a unas sencillas leyes que dibujan belleza en la
oscuridad. Un misterio de la duda ante lo inabarcable. Ante esa
contemplación espero, estoy seguro, que viviréis un momento mágico
lleno de emociones y cargado de belleza.
309
30: Epílogo.
311
plasma primordial viendo cómo iban emergiendo fuerzas y partículas
físicas, escuchando como sonaba la música ambiental de las ondas
sonoras en el revuelto ruedo. Vimos el flash que liberó a los fotones
primordiales que aún vuelan disciplinados, cada vez con menor
energía, a nuestro alrededor. No tan misteriosamente la materia que
nos conforma se iba congregando gracias al poder gravitatorio de
fuerzas medianamente oscuras, a la par que el tejido que sustenta la
obra de teatro iba creciendo y embalsando cantidades ingentes de
energía. Hasta llegar al año 13.800 millones… que con otro origen de
coordenadas temporales nosotros conocemos como “2018 de nuestra
era”. Las estructuras que observamos a simple vista, y gracias a la
cada vez más favorable tecnología, parecen estáticas aunque
realmente siguen bailando ininterrumpidamente bajo la batuta de las
leyes físicas. El Universo de hoy es un universo joven y nosotros
estamos en él en un momento muy favorable para poder observarlo.
No todo va a seguir igual. No hace tanto que cambió el signo de la
expansión al dominar la energía oscura a la gravedad. Todo aún
parece muy cerca como para poder estudiarlo… cercanía que se va a
ir desvaneciendo con los millones de años venideros, cuando la
materia se irá desgranando, separándose, reconvirtiéndose hacia sus
esencias más básicas, para morir en un mar de energía muy fría. O
eso creemos.
No voy a hablar de su futuro, pues a mis propósitos e interés me
parece irrelevante lo que pueda pasar ya que, como digo, hay muchos
boletos para que este futuro sea largo y gélido, el Big Freeze. Aunque
también se contemplan otras caídas del telón mucho menos
probables, sin duda intelectualmente tan estimulantes como el Big
Freeze, desde un colapso rápido a una rotura de magnitud cósmica,
nunca mejor dicho, del tejido del Universo.[3] En cualquier caso
estamos hablando de un futuro distante de nosotros en una cantidad
de años igual a una potencia de 10 elevado a un 1 seguido de… (no
me atrevo ni a poner el número de ceros, pero una barbaridad
inimaginable para el menguadito hombre que soy).
312
Nuestro Universo que me merece la pena es el de aquí y ahora, el
mío, el que puedo disfrutar e investigar. Éste que hizo levantar los
ojos al primer homo con suficiente consciencia para sentirse
agradecido por el retornar diario del sol, el que produjo un temor
reverencial como para ver en él a sus dioses, el que propició la
necesidad de inventar cosmologías a todos los pueblos antiguos, el
que motivó a los sumerios y egipcios a su estudio, el que hizo vibrar
en el alma de Pitágoras la idea de la armonía de las esferas… en
definitiva, el que causó asombro a tantos y tantos estudiosos,
Copérnico, Galileo, Newton, Einstein, Hubble, Guth… y muchos
más que me dejo en el tintero, una infinita lista, hombres que
admiramos porque nos regalaron su asombro hasta extremos que sin
ellos nunca hubiéramos alcanzado. Termino.
Y al igual que no lo he hecho al principio de este capítulo con las
sobrecogedoras palabras de Carl Sagan, tampoco aquí me resisto a
dejar de proponeros las emotivas palabras de Isaac Asimov[4]
encontrando poesía más allá de donde el poeta no supo verla.
Esas son las palabras de Asimov:
314
Los otros puntos brillantes que llamamos estrellas en vez de planetas
son en realidad soles. Algunos son de una grandiosidad
incomparable, cada uno brillando con la luz de mil soles como el
nuestro, algunos de ellos no son más que brasas que liberan su
energía mezquinamente. Algunos de ellos son cuerpos compactos tan
masivos como nuestro Sol, pero con toda esa masa comprimida en
una bola más pequeña que la Tierra. Algunos son más compactos
todavía, con la masa del sol comprimida hasta el volumen de un
pequeño asteroide. Y algunos son aún más compactos con su masa
reducida hasta el volumen de cero, cuyo emplazamiento se
caracteriza por un fuerte campo de gravedad que lo engulle todo y
no devuelve nada; con materia cayendo en espiral por un pozo sin
fondo y lanzando un salvaje grito de agonía de rayos X.
Existen estrellas que palpitan sin fin en una inmensa respiración
cósmica y otras que, después de haber consumido su combustible, se
expanden y enrojecen hasta engullir a sus propios planetas, si es que
tiene alguno. Algún día, dentro de millones de años, nuestro Sol se
expandirá y la Tierra se quemará y marchitará y se vaporizará
convirtiéndose en un gas de hierro y roca sin dejar restos de la vida
que una vez dio. Algunas estrellas explotan en un vasto cataclismo
cuyo estallido feroz de rayos cósmicos, desplazándose
apresuradamente casi a la velocidad de la luz, llega a través de miles
de años a tocar la Tierra y suministrar parte de la fuerza motriz de
la evolución a través de mutaciones.
A esta ínfima cantidad de estrellas que vemos al alzar la vista en
absoluto silencio -unas 2.500, no más, incluso en las noches más
oscuras y despejadas- se les suma una vasta horda que no vemos, que
asciende a la enorme cantidad de trescientos mil millones, para
formar un remolino enorme en el espacio. Este remolino, la Vía
Láctea, se estira tan extensamente que le toma a la luz, moviéndose
a 300.000 kilómetros por segundo, cien mil años para cruzar de un
extremo al otro; y rota alrededor de su centro en un giro amplio y
majestuoso que demora doscientos millones de años en completarse.
El Sol, la Tierra y nosotros mismos, todos damos ese giro.
315
Más allá de la Vía Láctea existen otras galaxias, más o menos una
veintena de ellas ligadas a la nuestra en un cúmulo de galaxias, la
mayoría de ellas pequeñas, con no más de unos pocos miles de
millones de estrellas en cada una; pero con una al menos, la galaxia
Andrómeda, el doble de grande que la nuestra. Más allá de nuestro
propio cúmulo, otras galaxias y otros cúmulos existen; algunos
cúmulos formados por miles de galaxias. Se extienden hacia afuera
y hacia el exterior tan lejos como nuestros mejores telescopios
pueden ver, sin signos visibles de un final, tal vez cien mil millones
de ellos en total.
Cada vez, en más y más de esas galaxias, estamos encontrando una
intensa violencia en el centro; grandes explosiones y emanaciones de
radiación señalando la muerte de quizás millones de estrellas.
Incluso en el centro de nuestra galaxia existe una increíble violencia
oculta en nuestro propio sistema solar y su periferia por enormes
nubes de polvo y gas que yacen entre nosotros y el centro agitado.
Algunos centros galácticos son tan brillantes que pueden ser
divisados a distancias de miles de millones de años luz, distancias
desde las cuales las galaxias mismas no pueden ser vistas, y solo los
centros brillantes y voraces de energía se dejan ver, como quásares.
Algunos de ellos han sido detectados desde más de diez millones de
años luz de distancia.
Todas esas galaxias se alejan las unas de las otras en una inmensa
expansión universal que comenzó hace quince mil millones de años,
cuando toda la materia del Universo se encontraba en una pequeña
esfera que explotó en la más vasta forma concebible para formar
galaxias. El Universo podría expandirse eternamente o puede llegar
el día en que la expansión disminuya y se invierta en una contracción
para volver a formar la pequeña esfera y comenzar el juego de nuevo
de manera que todo el Universo estaría exhalando e inhalando
alientos que quizás tarden billones de años en completarse.
Todo ese panorama que se encuentra más allá del alcance de la
imaginación humana fue posible gracias al trabajo de centenares de
“letrados” astrónomos.
316
Todo eso, absolutamente todo fue descubierto después de la muerte
de Whitman en 1892, y la mayoría en los últimos veinticinco años, de
modo que el pobre poeta nunca supo cuán limitada e insignificante
era la belleza que admiraba cuando él ‘levantaba la vista en
perfecto silencio hacia las estrellas’.
Tampoco nosotros podemos conocer o imaginar ahora la belleza
ilimitada que se nos revelará en el futuro gracias a la ciencia.”
317
APÉNDICE II. Breve cronología y otros parámetros
Tempe Tamaño
Momento Tiempo Energía ratura observable
(K) (metros)
322