Il y a muchas preguntas que mantienen despiertos a los cosmólogos, ya que no encuentran respuestas definitivas: obviamente pensamos en la materia oscura, en la asimetría materia-antimateria, en la energía oscura o en la evolución a largo plazo del universo. Hay otra pregunta, sin afirmar que sea más importante que estas últimas, que sigue siendo clasificada como un «problema que causa dolor de cabeza«: ¿por qué el universo no parece expandirse a la misma velocidad según la dirección en la que se mire?
Cuando los astrónomos apuntan sus telescopios hacia estrellas que explotan en nuestra galaxia vecina, obtienen un cierto valor, representativo de esa velocidad. Cuando otros retroceden hasta la radiación emitida justo después del Big Bang (la luz fósil que impregna el espacio en todas direcciones, también conocida como fondo cósmico de microondas) y calculan desde ese punto de partida, obtienen un número diferente. La diferencia (regresaremos a esto más adelante) puede parecer insignificante, pero en la mente de un científico, una constante que no lo es, es un gran problema.
Este hiato tiene un nombre: la «tensión de Hubble«, y siempre ha hecho dudar a la comunidad científica, ya que sugiere que es probable que estemos pasando por alto algo fundamental en nuestra comprensión del universo. Dos nuevos estudios proponen hoy una nueva metodología para medir de manera diferente la expansión del universo: según sus conclusiones, se estaría expandiendo mucho más lentamente de lo que se creía hasta ahora. Ambos se publicaron el 3 de febrero en la revista Astronomía y Astrofísica.
Hubble: la constante que se empecina
Para entender de qué se trata aquí, es imperativo comprender lo que se llama la constante de Hubble. Nombrada en honor al astrónomo Edwin Hubble, quien descubrió en la década de 1920 que el universo está en expansión, esta constante simplemente expresa la velocidad a la que el espacio se está expandiendo. Se mide en kilómetros por segundo por megapársec, o km/s/Mpc (un megapársec equivale a aproximadamente 3.3 millones de años luz).
El problema es que, si se mide localmente observando supernovas en nuestra galaxia vecina o a una escala más grande, a través del fondo cósmico de microondas (la luz fósil emitida algunas cientos de miles de años después del Big Bang) combinada con el modelo estándar de la cosmología, el valor obtenido no es el mismo: 73 km/s/Mpc en el primer caso, 68 km/s/Mpc en el segundo.
Entre los dos métodos de medición, hay una diferencia de 5 km/s/Mpc. Esto significa que si tomas dos galaxias separadas por 3.3 millones de años luz, uno de los métodos predice que se están alejando una de la otra 5 km/s más rápido de lo que predice el otro. A esa escala, es enorme. Y sobre todo, no debería suceder: la constante de Hubble se supone que es, precisamente, una constante; es decir, un valor único que describe cómo el espacio se expande en todas partes y para todos. Si dos métodos rigurosos dan dos respuestas diferentes, al menos uno de ellos está sesgado o ambos están pasando por alto algo.
Aunque los cosmólogos han explorado muchas pistas, nunca se ha llegado a resolver. Entonces, ¿qué hay que considerar? ¿Que el modelo estándar del universo (modelo LCDM), el gran libro de instrucciones que nos guía desde finales de la década de 1990, tiene un error de diseño?
Para explicar por qué las galaxias no se dispersan en el vacío, hemos invocado la existencia de la materia oscura. Para explicar por qué el universo se está expandiendo cada vez más rápido, hemos agregado la energía oscura a eso. Estos son nuestros dos pilares: representarían aproximadamente el 95% del contenido del universo, pero sin embargo, nunca han sido detectados directamente. Simplemente hemos admitido su existencia porque, sin ellas, nuestras ecuaciones no encajan y el modelo LCDM sería un retrato incompleto del universo.
La tensión de Hubble nos coloca frente a un dilema vertiginoso: si junto con estos dos pilares el modelo no puede predecir la constante correcta, tal vez se necesite un tercero, o uno de los dos primeros está mal planteado. Dos equipos han optado por no confiar ni en uno ni en otro de estos métodos, y proponen un camino teórico tercero, completamente libre de los sesgos inherentes a los dos primeros.
Error de medición o nueva constante física: la tercera hipótesis
Por lo tanto, los dos equipos eligieron un área de observación que nadie había explotado realmente para resolver la cuestión de la constante: dos grupos de galaxias cercanas, el grupo Centaurus A y el grupo M81. Ambos están atrapados por dos fuerzas opuestas: la gravedad de sus vecinas, que los retiene, y el flujo cósmico (la combinación de la expansión del universo por la energía oscura y la atracción de estructuras aún más masivas lejanas), que los empuja hacia afuera estirando el espacio en el que están atrapados.
Al modelar este juego de atracción-repulsión (qué galaxia atrae a cuál y a qué velocidad se alejan a pesar de todo), se puede remontar al valor de la expansión local que sola daría cuenta de lo observado allí. Una medición independiente que entonces no debería nada a las supernovas o al fondo cósmico de microondas, y que, como se explicó anteriormente, por lo tanto no heredaría ninguno de sus posibles sesgos.
Al analizar los dos grupos, los investigadores también destacaron algunas peculiaridades. Dentro de Centaurus A, la galaxia gigante homónima no domina su entorno como se pensaba: forma un sistema binario con la galaxia M83. En lugar de tener un centro de gravedad único, la masa se redistribuye entre estos dos pesos pesados, lo que cuestiona los cálculos anteriores que se basaban en una influencia gravitacional centralizada.
El grupo M81, por su parte, ya era conocido por su dúo central M81-M82, pero los nuevos datos muestran que su región interior está inclinada aproximadamente 34 grados con respecto a su entorno, y a la escala de diez millones de años luz, se alinea con una amplia estructura de hojas de materia que se une al grupo Centaurus A. Dos grupos distintos, pero inscritos en un mismo telón de fondo, lo que no está exento de consecuencias en la interpretación de sus respectivas dinámicas.
Al aislar la influencia gravitacional de estos grupos del movimiento general de expansión, los investigadores pudieron obtener un valor propio de la velocidad a la que el espacio se está estirando. Según sus cálculos, se expande a una velocidad de 64 km/s/Mpc. Este número no solo es más bajo que los 73 km/s/Mpc medidos a través de supernovas, sino que desciende incluso por debajo de los 68 km/s/Mpc calculados a partir de la radiación fósil del Big Bang.
Si este valor es correcto, representaría una revisión importante de la cosmología contemporánea. De hecho, ante la discrepancia entre las medidas y la tensión de Hubble, los teóricos estaban listos para salvar sus modelos: buscando fallas en la relatividad general, inventando una energía oscura evolutiva o apostando por partículas fantasma. Todos buscaban una «nueva física» revolucionaria para explicar un callejón sin salida teórico que no se podía entender.
Sus conclusiones sugieren que los «ingredientes» del modelo LCDM (materia ordinaria, materia oscura y energía oscura) son suficientes para explicar la velocidad de la expansión. De hecho, si todavía hay una discrepancia en la constante de Hubble, según ellos, se debe a los métodos de medición en sí mismos, y más específicamente a la forma en que reconstruimos la distancia y el movimiento de los objetos en el universo.
Los enfoques tradicionales se basan en cadenas de inferencias largas y frágiles: en el caso de las supernovas, es necesario calibrar los «estándares de distancia» a partir unos de otros, cada eslabón introduciendo su propia margen de error; en el caso del fondo cósmico de microondas, es imperativo extrapolar la evolución del universo desde sus primeros instantes utilizando un modelo teórico, asumiendo que este es perfectamente correcto en todas las épocas. En otras palabras, estos dos métodos no miden directamente la expansión del universo tal como se manifiesta hoy en día: la reconstruyen, cada uno a su manera, apoyándose en suposiciones y etapas intermedias que pueden sesgar el resultado final.
Por lo tanto, no hay razón para preocuparse si el universo se está desacelerando, ya que esto no tendrá absolutamente ningún impacto en el Sistema Solar y mucho menos en nuestro pequeño planeta. Es un cambio potencial en la teoría cosmológica, una transición de un paradigma a otro cuyo verdadero aporte será calmar una crisis intelectual que se consideraba insoluble sin una revisión total de nuestras leyes físicas fundamentales. Sin embargo, para declarar finalmente que la tensión de Hubble está completamente resuelta, se necesitará mucho más que estos dos estudios. El desafío ahora consiste en demostrar que esta hipótesis es extrapolable a todo el universo, y no solo a los dos grupos de galaxias estudiados: lo que es verdadero en nuestra vecindad galáctica, ¿lo es a escala cosmológica?




