¿Puede la cosmología desentrañar los misterios más escurridizos del universo?

“Lo primero que sabemos del universo es que es muy, muy grande”, afirma el cosmólogo Michael Turner, que lleva más de cuatro décadas contemplando esta realidad. “Y como el universo es tan grande”, dice, “a menudo está fuera del alcance de nuestros instrumentos, y de nuestras ideas”.

Ciertamente, nuestra comprensión actual de la historia cósmica deja algunas enormes preguntas sin respuesta, dice Turner, profesor emérito de la Universidad de Chicago y miembro visitante de la facultad de la UCLA. Por ejemplo, tomemos la cuestión de los orígenes. Ahora sabemos que el universo lleva expandiéndose y evolucionando unos 13.800 millones de años, desde que todo lo que existe explotó a partir de un estado inicial de temperatura y densidad casi infinitas —es decir, el big bang—. Sin embargo, nadie sabe con certeza qué fue el big bang, dice Turner. Tampoco se sabe qué lo desencadenó, ni qué hubo antes —ni siquiera si tiene sentido hablar de “tiempo” antes de ese acontecimiento inicial—.

Además, las estrellas y galaxias más lejanas que pueden ver nuestros telescopios se limitan al universo “observable”: la región que abarca objetos como galaxias y estrellas cuya luz ha tenido tiempo de llegar hasta nosotros desde el big bang. Se trata de un volumen vasto, casi inconcebible, afirma Turner, que se extiende decenas de miles de millones de años luz en todas direcciones. Sin embargo, no tenemos forma de saber qué hay más allá. Tal vez solo más de lo mismo, extendiéndose hasta el infinito. O reinos completamente extraños —con leyes físicas muy distintas de las nuestras—.

Pero, como explica Turner en el Annual Review of Nuclear and Particle Science de 2022, los misterios son de esperar. El estudio científico de la cosmología, el campo que se centra en los orígenes y la evolución del universo, apenas tiene un siglo. Ya se ha visto transformado en más de una ocasión por nuevas ideas, nuevas tecnologías y descubrimientos asombrosos —y hay muchas razones para esperar más sorpresas—.

Knowable Magazine habló recientemente con Turner sobre cómo se produjeron estas transformaciones y cuál podría ser el futuro de la cosmología. Esta entrevista ha sido editada para lograr más claridad.

Usted dice en su artículo que la cosmología científica moderna no se inició hasta aproximadamente la década de los años veinte. ¿Qué ocurrió entonces?

No es como si nada hubiera ocurrido antes. Llevamos especulando sobre el origen y la evolución del universo desde siempre. Pero la mayor parte de lo que se hacía antes de hace unos 100 años lo llamaríamos ahora astronomía galáctica, que es el estudio de estrellas, planetas y nubes de gas interestelares dentro de nuestra propia Vía Láctea. En aquella época, muchos astrónomos sostenían que la Vía Láctea era el universo —no había nada más—.

Pero en la década de los años veinte ocurrieron dos cosas importantes. Uno fue el trabajo de un joven astrónomo llamado Edwin Hubble. Él se interesó por las nebulosas, que eran esas manchas borrosas de luz en el cielo que los astrónomos llevaban catalogando cientos de años. Siempre había habido un debate sobre su naturaleza: ¿Eran solo nubes de gas relativamente cercanas en la Vía Láctea, u otros “universos isla” tan grandes como el nuestro?

Nadie había sido capaz de averiguarlo. Pero Hubble tuvo acceso a un nuevo telescopio de 100 pulgadas, el mayor del mundo en aquella época. Y eso le proporcionó un instrumento lo suficientemente potente como para observar algunas de las nebulosas más grandes y brillantes, y demostrar que contenían estrellas individuales, no solo gas. En 1925, también fue capaz de calcular la distancia a la nebulosa más brillante, en la constelación de Andrómeda. Se encontraba fuera de la Vía Láctea. Era una galaxia completamente distinta a la nuestra.

Ese artículo resolvió por sí solo el enigma de las nebulosas y situó a Hubble en el mapa como un gran astrónomo. En términos actuales, había identificado la arquitectura fundamental del universo, que consiste en estas colecciones de estrellas organizadas en galaxias como nuestra Vía Láctea —alrededor de 200.000 millones de ellas en la parte del universo que podemos ver—.

Pero no se detuvo ahí. En aquella época, existía una especie de “guerra” —quizás esa es una palabra muy fuerte—, pero sí una separación entre los astrónomos que tomaban fotografías y los astrofísicos que utilizaban la espectroscopía, una técnica que los físicos habían desarrollado en el siglo XIX para analizar las longitudes de onda de la luz emitida por objetos lejanos. Una vez que se empezaron a tomar espectros de objetos como estrellas o planetas, y a comparar sus emisiones con las de elementos químicos conocidos en el laboratorio, se pudo decir: “Oh, no solo sé de qué está hecho, sino que conozco su temperatura y a qué velocidad se mueve hacia nosotros o se aleja de nosotros”. Así podrías empezar a estudiar realmente el objeto.

Sin embargo, al igual que en otros campos de la ciencia, los mejores astrónomos utilizan todas las herramientas a su alcance, ya sean imágenes o espectros. En el caso de Hubble, prestó especial atención a un artículo previo en el que se había utilizado la espectroscopía para medir la velocidad de las nebulosas. Lo sorprendente de este trabajo era que algunas de las nebulosas se alejaban de nosotros a cientos de kilómetros por segundo. En términos espectroscópicos, tenían un “corrimiento al rojo” elevado, lo que significa que sus emisiones se desplazaban hacia longitudes de onda más largas que las que se verían en el laboratorio.

Así que en 1929, cuando Hubble dispuso de datos sólidos sobre las distancias de dos docenas de galaxias y de estimaciones razonables de otras más, comparó esos valores con los datos de desplazamiento al rojo. Y obtuvo una correlación sorprendente: cuanto más lejos estaba una galaxia, más rápido se alejaba de nosotros.

Esta era la relación que ahora se conoce como ley de Hubble. Sin embargo, se tardó un tiempo en comprender su significado.

¿Por qué? ¿Era necesario un segundo gran desarrollo?

Sí. Un poco antes, en 1915, Albert Einstein presentó su teoría de la relatividad general, que supuso un cambio de paradigma y una reformulación de la gravedad. Su idea clave era que el espacio y el tiempo no son fijos, como siempre habían supuesto los físicos, sino dinámicos. La materia y la energía curvan el espacio y el tiempo a su alrededor, y la “fuerza” que llamamos gravedad no es más que el resultado de la desviación de los objetos cuando se mueven en este espacio-tiempo curvado. Como dijo célebremente el difunto físico John Archibald Wheeler: “El espacio le dice a la materia cómo moverse, y la materia le dice al espacio cómo curvarse”.

Tomó unos años hasta poder relacionar la teoría de Einstein con la observación. Pero a principios o mediados de la década de los años treinta, estaba claro que lo que Hubble había descubierto no era que las galaxias se alejan de nosotros hacia el espacio vacío, sino que el propio espacio se expande y arrastra a las galaxias con él. Todo el universo se expande.

Y al menos algunos científicos de los años treinta empezaron a darse cuenta de que el descubrimiento de Hubble también significaba que el universo tenía un principio.

El punto de inflexión fue probablemente George Gamow, un físico soviético que desertó su país para irse a Estados Unidos en la década de los treinta. Él había estudiado relatividad general como estudiante en Leningrado y sabía que las ecuaciones de Einstein implicaban que el universo se había expandido a partir de una “singularidad”, un punto matemático donde comenzaba el tiempo y el radio del universo era cero. Es lo que ahora llamamos el big bang.

Pero Gamow también conocía la física nuclear, que había ayudado a desarrollar antes de la Segunda Guerra Mundial. Y hacia 1948, él y sus colaboradores empezaron a combinar la relatividad general y la física nuclear en un modelo del principio del universo para explicar de dónde procedían los elementos de la tabla periódica.

Su idea clave era que el universo comenzó caliente y luego se enfrió al expandirse como lo hace el gas de un aerosol. Esto era totalmente teórico en aquella época. Pero se confirmaría en 1965, cuando los radioastrónomos descubrieron la radiación cósmica de fondo de microondas. Esta radiación está formada por fotones de alta energía que surgieron del big bang  y se enfriaron a medida que el universo se expandía, hasta que hoy se encuentran a solo 3 grados Kelvin por encima del cero absoluto, que es también la temperatura media del universo en su conjunto.

En esta sopa caliente y primigenia —denominada ylem por Gamow— la materia no existiría en la forma actual. El calor extremo reduciría los átomos a sus componentes: neutrones, protones y electrones. El sueño de Gamow era que las reacciones nucleares en la sopa enfriada habrían producido todos los elementos, al combinarse neutrones y protones para formar los núcleos de los distintos átomos de la tabla periódica.

Pero su idea se quedó corta. Hicieron falta varios años y muchas personas para que los cálculos salieran bien. Pero en la década de los sesenta, estaba claro que lo que se obtendría de estas reacciones nucleares era sobre todo hidrógeno, más una gran cantidad de helio —alrededor del 25 % en peso, exactamente lo que observaron los astrónomos—, más un poco de deuterio, helio-3 y litio. Los elementos más pesados, como el carbono y el oxígeno, se formaron más tarde, mediante reacciones nucleares en las estrellas y otros procesos.

Así pues, a principios de los años setenta, ya teníamos la creación de los elementos ligeros en un big bang caliente, la expansión del universo y la radiación de fondo de microondas: los tres pilares observacionales de lo que se ha dado en llamar el modelo estándar de la cosmología, y lo que yo llamo el primer paradigma.

Pero usted señala que los cosmólogos empezaron casi inmediatamente a cambiar hacia un segundo paradigma. ¿Por qué? ¿Estaba equivocado el modelo del big bang?

No es erróneo: nuestro conocimiento actual sigue apuntando a un comienzo caliente del big bang, pero es incompleto. En los años setenta, la idea de un comienzo caliente atrajo la atención de los físicos de partículas, que vieron en el big bang una forma de estudiar las colisiones de partículas a energías que no se podían alcanzar con los aceleradores aquí en la Tierra. De repente, el campo creció mucho y la gente empezó a plantearse preguntas que sugerían que a la cosmología estándar le faltaba algo.

Por ejemplo, ¿por qué el universo es tan uniforme? La intensidad y la temperatura de la radiación de fondo de microondas, que es la mejor medida que tenemos de todo el universo, es casi perfectamente uniforme en todas direcciones. No hay nada en las ecuaciones cosmológicas de Einstein que diga que esto tiene que ser así.

Por otro lado, ¿por qué esa suavidad cósmica es solo casi perfecta? Al fin y al cabo, las características más destacadas del universo actual son las galaxias, que deben haberse formado a medida que la gravedad magnificaba pequeñas fluctuaciones en la densidad de la materia en el universo primitivo. ¿De dónde proceden esas fluctuaciones? ¿Qué sembró las galaxias?

Por aquel entonces, se habían acumulado pruebas de que los neutrones y los protones estaban formados por trozos más pequeños, los quarks, lo que significaba que la sopa de neutrones y protones también acabaría hirviendo, convirtiéndose en una sopa de quarks en los primeros tiempos. Así que quizá las respuestas se encuentren en esa fase temprana de la sopa de quarks, o incluso antes.

Esta es la posibilidad que llevó a Alan Guth a su brillante trabajo sobre la inflación cósmica en 1981.

¿Qué es la inflación cósmica?

La idea de Guth era que en la fracción de segundo más pequeña tras la singularidad inicial, según las nuevas ideas de la física de partículas, el universo debería experimentar una explosión de expansión acelerada. Habría sido una expansión exponencial, mucho más rápida que en el modelo estándar del big bang. El tamaño del universo se habría duplicado, duplicado y vuelto a duplicar, tantas veces como para tomar una porción subatómica del espacio y hacerla volar hasta la escala del universo observable.

Esto explicaba de inmediato la uniformidad del universo, igual que si tuvieras un globo y lo inflaras hasta que tuviera el tamaño de la Tierra o más: parecería liso. Pero la inflación también explicaba las galaxias. En el mundo cuántico, es normal que el número de partículas en una región diminuta rebote de un lado a otro. Normalmente, el promedio es cero y no nos damos cuenta. Pero cuando la inflación cósmica produjo esta tremenda expansión, elevó estas fluctuaciones subatómicas a escalas astrofísicas y proporcionó las semillas para la formación de galaxias.

Este resultado es el ejemplo perfecto de la conexión entre la física de partículas y la cosmología: las cosas más grandes del universo —galaxias y cúmulos de galaxias— se originaron a partir de fluctuaciones cuánticas que fueron inimaginablemente pequeñas.

Usted ha escrito que el segundo paradigma tiene tres pilares, siendo la inflación cósmica el primero. ¿Y los otros dos?

Cuando a principios de los años ochenta se elaboraron los detalles de la inflación, la gente vio que faltaba algo más. La expansión exponencial habría estirado todo hasta que el espacio fuera “plano” en cierto sentido matemático. Pero según la relatividad general de Einstein, la única forma de que el universo podría ser plano es si su contenido de masa y energía se promediara hasta una cierta densidad crítica. Este valor era realmente pequeño, equivalente a unos pocos átomos de hidrógeno por metro cúbico.

Pero incluso eso era una exageración: las mejores mediciones de los astrónomos de la densidad media de todos los planetas, estrellas y gas del universo —todas las cosas formadas por átomos— no llegaban ni al 10 % de la densidad crítica. (La cifra actual es del 4,9 %). Por tanto, algo que no estuviera hecho de átomos tenía que estar compensando la diferencia.

Ese algo resultó tener dos componentes, uno de los cuales los astrónomos ya habían empezado a detectar a través de sus efectos gravitatorios. Fritz Zwicky encontró la primera pista en los años treinta, cuando observó el movimiento de las galaxias en cúmulos distantes. Cada uno de estos cúmulos galácticos estaba obviamente unido por la gravedad, porque sus galaxias estaban todas juntas y no se separaban. Sin embargo, las velocidades observadas por Zwicky eran muy elevadas y llegó a la conclusión de que las estrellas visibles por sí solas no podían producir la gravedad suficiente para mantener unidas las galaxias. La gravedad adicional tenía que provenir de alguna forma de “materia oscura” que no brillaba, pero que superaba a las estrellas visibles en un gran factor.

En los años setenta, Vera Rubin y Kent Ford se pusieron manos a la obra con sus estudios sobre la rotación de las galaxias cercanas ordinarias, empezando por Andrómeda. Descubrieron que las tasas de rotación eran demasiado rápidas: no había suficientes estrellas ni gas interestelar para mantener estas galaxias unidas. La gravedad adicional tenía que proceder de algo invisible —de nuevo, la materia oscura—.

A los físicos de partículas les encantaba la idea de la materia oscura, porque sus teorías del campo unificado contenían partículas hipotéticas con nombres como neutralino, o axión, que se habrían producido en grandes cantidades durante el big bang, y que tenían exactamente las propiedades adecuadas. No emitirían luz porque no tendrían carga eléctrica e interacciones muy débiles con la materia ordinaria. Pero tendrían masa suficiente para producir los efectos gravitatorios de la materia oscura.

Aún no hemos detectado estas partículas en el laboratorio. Pero sabemos algunas cosas sobre ellas. Por ejemplo, son “frías”, lo que significa que se mueven lentamente en comparación con la velocidad de la luz. Y sabemos por simulaciones informáticas que sin la gravedad de la materia oscura fría, esas pequeñas fluctuaciones de densidad en la materia ordinaria que surgió del big bang nunca se habrían colapsado en galaxias. Simplemente no tenían suficiente gravedad por sí mismas.

Así que ese era el segundo pilar, la materia oscura fría. ¿Y el tercero?

A medida que mejoraban las simulaciones y las observaciones, los cosmólogos empezaron a darse cuenta de que incluso la materia oscura era solo una fracción de la densidad crítica necesaria para que el universo fuera plano (la cifra moderna es del 26,8 %). La pieza que faltaba se encontró en 1998, cuando dos grupos de astrónomos hicieron una medición muy cuidadosa del corrimiento al rojo en galaxias lejanas, y descubrieron que la expansión cósmica se estaba acelerando gradualmente.

Así que algo —yo sugerí llamarlo “energía oscura”, y el nombre se quedó— está separando el universo. Lo que mejor sabemos es que la energía oscura provoca una gravedad repulsiva, algo que está integrado en la relatividad general de Einstein. La característica crucial de la energía oscura es su elasticidad o presión negativa. Además, no puede dividirse en partículas —es más bien un medio extremadamente elástico—.

Aunque la energía oscura sigue siendo uno de los grandes misterios de la cosmología y la física de partículas, parece ser matemáticamente equivalente a la constante cosmológica que Einstein sugirió en 1917. En la interpretación moderna, sin embargo, corresponde a la energía del vacío cuántico de la naturaleza. Esto conduce a una imagen extraordinaria: la expansión cósmica se acelera en lugar de ralentizarse, todo ello causado por la gravedad repulsiva de un componente muy elástico y misterioso del universo llamado energía oscura. Las pruebas, igualmente extraordinarias, de esta extraordinaria afirmación se han ido acumulando desde entonces y los dos equipos que realizaron el descubrimiento en 1998 fueron galardonados con el Premio Nobel de Física en 2011.

Así que aquí es donde estamos: un universo plano de densidad crítica que comprende materia ordinaria en un 5 %, materia oscura compuesta por partículas en un 25 % y energía oscura en un 70 %. La constante cosmológica se sigue llamando lambda, la letra griega que utilizó Einstein. De ahí que el nuevo paradigma se denomine modelo lambda-materia oscura fría (lambda-CDM por sus siglas en inglés) de la cosmología.

Así que este es su segundo paradigma: ¿inflación más materia oscura fría más energía oscura?

Sí. Y es esta increíble situación de vaso medio lleno, medio vacío. El paradigma de lambda-CDM tiene estos tres pilares que están bien establecidos con pruebas, y que nos permiten describir la evolución del universo desde una diminuta fracción de segundo hasta hoy. Pero sabemos que no hemos terminado.

Por ejemplo, dices: “Vaya, la inflación cósmica parece muy importante. Es la razón por la que hoy tenemos un universo plano y explica las semillas de las galaxias. Cuéntame los detalles”. Bueno, no conocemos los detalles. Nuestro mejor entendimiento es que la inflación fue causada por algún campo aún desconocido, similar al bosón de Higgs descubierto en 2012.

Entonces dices: “Sí, esta materia oscura parece muy importante. Su gravedad es responsable de la formación de todas las galaxias y cúmulos del universo. ¿Qué es?” No lo sabemos. Probablemente sea algún tipo de partícula sobrante del big bang, pero no la hemos encontrado.

Y finalmente dices: “Oh, la energía oscura es el 70 % del universo. Eso debe ser realmente importante. Cuéntame más sobre ella”. Y decimos, es consistente con una constante cosmológica. Pero en realidad, no tenemos ni idea de por qué la constante cosmológica debe existir o tener el valor que tiene.

Así que ahora la cosmología nos ha dejado con tres preguntas de la física: ¿Qué son la materia oscura, la energía oscura y la inflación?

¿Significa eso que necesitamos un tercer paradigma cosmológico para encontrar las respuestas?

Puede ser. Podría ser que todo esté resuelto en 30 años porque desarrollamos nuestras ideas actuales. Descubrimos que la materia oscura es realmente alguna partícula como el axión, que la energía oscura es realmente solo la energía cuántica constante del espacio vacío, y que la inflación fue realmente causada por el campo de Higgs.

Pero lo más probable es que, si la historia sirve de guía, nos estemos perdiendo algo y haya una sorpresa en el horizonte.

Algunos cosmólogos intentan encontrar esta sorpresa siguiendo las grandes preguntas. Por ejemplo: ¿Qué fue el big bang? ¿Y qué ocurrió antes? La teoría del big bang de la que hablábamos antes es cualquier cosa menos una teoría del big bang en sí; es una teoría de lo que ocurrió después.

Recordemos que el big bang, según la relatividad general de Einstein, fue la singularidad que dio lugar a la creación de la materia, la energía, el espacio y el tiempo. Ese es el gran misterio, del que nos cuesta incluso hablar en términos científicos: ¿hubo una fase antes de esta singularidad? Y si fue así, ¿cómo fue? O, como piensan muchos teóricos, ¿la singularidad en las ecuaciones de Einstein representa el instante en que el espacio y el tiempo surgieron de algo más fundamental?

Otra posibilidad que ha captado la atención de científicos y público por igual es el multiverso. Esto se deriva de la inflación, en la que imaginamos la explosión de una pequeña porción de espacio hasta alcanzar un tamaño enorme. ¿Podría esto ocurrir más de una vez, en distintos lugares y momentos? Y la respuesta es sí: podrían haber diferentes partes del multiverso más amplio inflándose en universos completamente distintos, quizá con leyes físicas diferentes en cada uno de ellos. Podría ser la mayor idea desde que Copérnico nos sacó del centro del universo. Pero también es muy frustrante porque ahora mismo no es ciencia: estos universos estarían completamente desconectados, sin forma de acceder a ellos, observarlos o demostrar que realmente existen.

Otra posibilidad está en el título de mi artículo de Annual Reviews: El camino hacia la cosmología de precisión. Antes, la cosmología era muy difícil porque los instrumentos no estaban a la altura. En los años treinta, Hubble y su colega Milton Humason lucharon durante años para recopilar los desplazamientos al rojo de unos cientos de galaxias, en parte porque registraban un espectro a la vez, en placas fotográficas que recogían menos del 1 % de la luz. Ahora los astrónomos utilizan detectores electrónicos CCD —del mismo tipo que todo el mundo lleva en su teléfono— que recogen casi el 100 % de la luz. Es como si aumentaras el tamaño de tu telescopio sin ninguna construcción.

Y tenemos proyectos como el Instrumento Espectroscópico de Energía Oscura en Kitt Peak, Arizona, que puede recoger los espectros de 5.000 galaxias a la vez —35 millones de ellos en cinco años—.

Así que la cosmología solía ser una ciencia pobre en datos en la que era difícil medir las cosas con una precisión fiable. Hoy hacemos cosmología de precisión, con una exactitud porcentual. Además, a veces somos capaces de medir cosas de dos maneras diferentes y ver si los resultados coinciden, creando cruces transversales que pueden confirmar nuestro paradigma actual o revelar grietas en él.

Un buen ejemplo de ello es la velocidad de expansión del universo, el llamado parámetro de Hubble —el número más importante de la cosmología—. Si nada más, nos indica la edad del universo: cuanto mayor es el parámetro, más joven es el universo, y viceversa. Hoy en día podemos medirlo directamente con las velocidades y distancias de las galaxias hasta unos pocos cientos de millones de años luz, al nivel de unos pocos puntos porcentuales.

Pero ahora hay otra forma de medirlo con observaciones por satélite de la radiación de fondo de microondas, que nos da la tasa de expansión cuando el universo tenía unos 380.000 años, con una precisión aún mayor. Con el lambda-CDM se puede extrapolar esa tasa de expansión hasta la actualidad y ver si se obtiene la misma cifra que con los corrimientos al rojo. Y no es así: las cifras difieren en casi un 10 %, un enigma que se conoce como la tensión de Hubble.

Así que tal vez ese sea el hilo suelto: la pequeña discrepancia en las mediciones de precisión que podría conducir a otro cambio de paradigma. Podría ser simplemente que las mediciones directas de las distancias a las galaxias sean erróneas, o que las cifras del fondo de microondas sean erróneas. Pero quizá estemos encontrando algo que falta en el modelo lambda-CDM. Eso sería extremadamente emocionante.

Artículo traducido por Debbie Ponchner

Read in English

10.1146/knowable-050823-1

M. Mitchell Waldrop es un periodista independiente radicado en Washington, DC. Sus anteriores reportajes para Knowable Magazine han tratado temas como la energía nuclear ecológica, el concreto ecológico, el reciclaje, el futuro del trabajo, los deepfakes generados por IA, el voto por orden de preferencia y los peligros de las fianzas en efectivo. Su libro más reciente es Cosmic Origins: Science’s Long Quest to Understand How Our Universe Began (2022).

This article originally appeared in Knowable Magazine, an independent journalistic endeavor from Annual Reviews. Sign up for the newsletter.