Publicado hace 4 meses por asgard_gainsborough a elperiodic.com

La colaboración de EHT ha presentado una nueva imagen del agujero negro en el centro de la galaxia M87, a partir de observaciones de 2018. Estas observaciones proporcionan un conjunto de datos independiente de los empleados en 2017 y revelan un brillante anillo de dimensiones idénticas a las observadas en 2017. Sin embargo, en esta nueva imagen, la región más luminosa del anillo está desplazada 30 grados con respecto a 2017, de acuerdo con los modelos teóricos que describen la variabilidad del material turbulento que rodea a los agujeros negros

Fortuna

Un poco peligroso para la credibilidad. Lo que no se mide se simula con el conocimiento de la física actual (con IA). Si hubiera algún error de concepto, este experimento no lo mostraría, ¿o sí? ¿alguien lo sabe?.

a

#1 ¿A qué te refieres con "error de concepto"? La técnica que se ha utilizado para captar la imagen (interferometría de larga base) data de 1958, y algunas de las técnicas de calibración, de 1974. De hecho, se han estado usando desde entonces diariamente por muchas instalaciones científicas, no solo el EHT, sino el VLBA, EVN, KVN, EAVN,... Poco tiene que ver aquí la IA.

Fortuna

#2 Pensaba que todo el mundo sabía contestar a la pregunta "Cómo podemos ver con tanto detalle un objeto astronómico tan distante"
Veo que no.
Un par de enlaces, el resto lo buscas tú. Si quieres, claro.

https://es.wired.com/articulos/la-mejor-foto-de-un-agujero-negro-hasta-ahora-fue-mejorada-por-un-ia-y-este-es-el-resultado
un algoritmo impulsado por inteligencia artificial llamada PRIMO.
Su nuevo algoritmo PRIMO entrenó usando 30 mil imágenes de singularidades simuladas creadas a partir de datos de los radiosatélites para saber cómo debía de verse un agujero negro real.

https://hipertextual.com/2023/04/ia-nos-permite-ver-como-nunca-imagen-agujero-negro-m87

a

#3 A riesgo de sonar pedante, a no ser que seas uno de los co-autores del artículo científico, creo que sé contestar la pregunta de cómo se ha obtenido la imagen bastante mejor que tú. Los métodos que se han utilizado para obtener la imagen incluyen difmap (el que he comentado antes que utiliza lal técnica de 1974), eht-imaging, SMILI, THEMIS o Comrade.
El algoritmo PRIMO no se ha tomado en cuenta para los resultados publicados, precisamente porque super-resuelve la imagen (y además debe tomar las imagenes que se describen en el paper como base).
El paper original:
https://www.aanda.org/articles/aa/pdf/2024/01/aa47932-23.pdf

Fortuna

#4 Ni siquiera había leído el pdf. No obstante, así por encima, el apartado 5. indica varias cosas. Entre ellas que no hay una única imagen que pueda dar esos resultados y que se calibra con modelos de relatividad general. Para entender el pdf completo hay que ser un experto.
 
Mi objeción que da lugar a esta discusión va en ese sentido. Se está viendo lo que se quiere ver, pero por supuesto se calibra el resultado con análisis estadísticos. No creo francamente que el objeto real sea muy diferente de la imagen que se muestra al final sí y solo si todo nuestro conocimiento sobre cómo se ve un agujero negro es exacto. 

a

#5 Sí, eso es lo que estaba comentando, que se han utilizado varios métodos independientes para obtener la imagen, algunos de los cuales son bastante nuevos, pero otros ya tienen muchos años de testeo tras ellos. Y aparte, uno de los resultados gordos del paper, que no solo los métodos son independientes, sino que las observaciones también lo son (un año más tarde), así que todos los resultados son consistentes.
Y no, la obtención de la imagen no se calibra usando modelos de relatividad general. Eso sucede para el PRIMO que has mencionado antes, pero no para la metodología que se describe en el paper; en todo caso, se usan los modelos para, una vez obtenida la imagen, obtener qué parametros se ajustan mejor a nuestros modelos (valga la redundancia).
Como ya he mencionado, si tienes dudas sobre el proceso de calibración y obtención de la imagen, no dudes en preguntar si quieres. Yo sí soy un experto.

Fortuna

#6 Bien, parece que nos entendemos. He de decir que mis objeciones estaban basadas en el experimento de 2017 y una de las características que la prensa dice este año es que el tamaño, creo que el de la esfera de fotones, no ha cambiado desde esa fecha. Es decir, no se ha encontrado contradicción.
Aprovechando tu ofrecimiento, tengo dos dudas (y no más por mi ignorancia al respecto).
1.- La imagen de partida, una vez extraída de interferiometría, que entiendo que son técnicas exactas, matemáticas, ¿son los de la figura 17?. No llego a entender esa figura.
2.- Las probabilidades de que estos métodos estén reflejando "algo que no es". Ojo que no afirmo nada, sino la posibilidad de que algo no sea como se piensa. Sé que puede parecer infantil, pero ¿estos métodos podrían detectar, por ejemplo, que hay simetría hexagonal en lugar de cilíndrica? (de nuevo no digo que sea ésto, sino un ejemplo más o menos malo).
En todo caso, ¿donde puedo comprender mejor que una descripción de prensa y sin tener que ser un experto, qué se está haciendo con este experimento y que márgenes de error tienen?.
 

Fortuna

#6 Se me ha pasado el tiempo de edición, donde estaba comentando:
En matemáticas se usa el método de reducción al absurdo. Aquí podríamos usarlo de esta forma: ¿Existen imágenes que se ajusten a los datos que muestren algún parámetro del AN que difiera significativamente de los que muestran las técnicas aquí empleadas?.

a

#7 Intentaré explicarme lo mejor que pueda. Como no sé cuál es el nivel de matemáticas o de física que tienes, si hay algo que no acabes de entender del todo, me lo comentas e intento explicarlo mejor. Atención, se viene tocho.

Vamos por partes. Primero, la parte de interferometría. Un ejemplo que suelo poner es el de un pie de rey (un calibre de medir) respecto a una regla. Con la regla podemos medir distancias tan pequeñas como un milímetro, pero si juntamos un par de reglas de un modo en particular, entonces creamos un pie de rey que, aún siendo simplemente dos reglas, con divisiones de milímetros, nos permiten medir cosas con precisiones de una centésima de milímetro. Con los telescopios hacemos lo mismo. Con un telescopio podemos ver cosas muy pequeñas (distancia angular, resolución).

¿Cómo podemos juntar dos telescopios para poder observar lo mismo, pero con una resolución muchísimo mejor (ver más detalles)? La solución es la interferometría, y es usar las franjas de difracción que se usan al utilizar los dos telescopios. Si sabes lo que es el experimento de Young, imagina que las franjas son los telescopios, y el patrón de interferometría lo que observamos en la correlación. Si no lo sabes, te pongo otro ejemplo: un telescopio, o una antena (piensa en la parabólica de toda la vida), simplemente toma toda la luz que le llega y la envía a un foco, igual que una lupa. Como no podemos hacer un telescopio de 1000 km de diámetro, simplemente hacemos cachitos de telescopio y los ponemos donde estaría cada una de las partes del telescopio gigante, de forma que los rayos de luz se sigan enviando a un foco. El siguiente paso es poner cada cachito de telescopio donde nos dé la gana, siempre y cuando sepamos cómo y cuanto cambia el rayo de luz por éste cambio. Como ahora es más complicado que cada cachitelescopio envíe el rayo de luz a un punto focal, lo que hacemos es enviar la información de todos los rayos de luz (sus voltajes, etc) a un ordenador que hará de foco virtual. Éso es el correlador y, de nuevo, lo que vemos es el patrón de interferencia de todos los rayos de luz de todos los cachitelescopios (que se corresponden, en la realidad, con cada uno de los telescopios que han participado en la observación).

Vale, segundo paso. ya tenemos la información de todos los rayos de luz. pero ah! eso no es una imagen, sino un porrón de voltajes, de frecuencias y de fases de campos electromagnéticos (vamos, un patrón de difracción, pero en 3D). En el paper, eso son las figuras 4 (dónde vemos el patrón) y 5 (el patrón, pero visto en radial). Lo que queremos saber ahora es qué imagen era la que generaba ése patrón determinado, y eso es lo que queremos hacer con todos esos algoritmos y métodos de los que hemos estado hablando antes. En principio, eso se hace con una función matemática llamada la transformada de Fourier y ya está. Pero, pero pero... hay un par de problemas:
1) como no tenemos telescopios en todos lados, nos faltan muchas zonas de franjas, zonas de interferencia, donde no vemos cómo es el patrón de difracción
2) las medidas no son perfectas, vienen con incertidumbres y con márgenes de error. Aunque los podemos acotar, siempre van a estar ahí. Por ejemplo, si ha habido un pequeño terremoto y un telescopio se ha movido un milímetro, el rayo de luz ha llegado con una fase diferente de lo que se creía.
Estas dos cosas (y algunas más) afectan a la imagen final. Y, de hecho, es una de las preguntas que planteas. ¿Existen imágenes que sean diferentes y se ajusten también a los datos? SI, existen, y muchas. ¿Podría haber simetría hexagonal en vez de cilíndrica? Sí, y eso tiene que ver con los datos que nos faltan en el patrón de difracción. Cuanto más datos nos faltan, más perturbaciones habrá en la señal que nos da la transformada de Fourier. Es lo que llamamos la point spread function (PSF) = cómo se vería una fuente puntual. Cuanto más datos falten, una señal puntual tendrá "artefactos", otras señales ficticias alrededor, etc etc. Lo bueno es que, si sabemos como es la PSF, podemos intentar compensar. Lo malo es que, aún seguirán faltando datos y tenemos que buscarnos la vida.

Tercer paso: ya sé que tengo el patrón de interferencia, y sé que haciendo la transformada de Fourier puedo obtener la imagen real que produjo ése patrón... y un porrón de imágenes más que no tienen nada que ver. ¿Entonces qué hacemos? Bueno, lo primero, experiencia y sabiduría. Pero como esto es ciencia y no arte, tenemos que hacer algo más matemático. Por eso se buscan modelos matemáticos que puedan buscar la mejor imagen, los parámetros de búsqueda que obtengan la imagen matemáticamente más razonable (los "top set parameters" de los que se habla en la sección 5.1), se buscan diferentes métodos, estrategias y mecanismos, para ver si también da lo mismo, etc etc. Ésto es lo que se hace en la Figura 7, donde se han dado un porrón de imágenes de muestra, y se ha visto que los algoritmos son capaces de reproducir las imágenes de vuelta, y no otras cosas diferentes. Aquí es donde el demonio está en los detalles. Alguien podría decir que, si se espera que la forma final sea un anillo, entonces los científicos van a forzar (aunque sea de forma inconsciente) que la image final acabe pareciendo un anillo. Para evitar esto, se han hecho pruebas con varios modelos: con anillos, con elipses, con un par de puntos, con manchas inhomogeneas,... todo para evitar que el prejuicio de lo que los científicos esperan no afecte al resultado final.

Así que la final llegamos a la famosa imagen 17 del artículo. La fila de arriba indica cómo se ve la imagen obtenida con cada uno de los métodos de forma independiente y teniendo en cuenta todo lo mencionado arriba. Pero cada método tiene un "enfoque" (literal y figurado) diferente, así que los resultados tienen "resoluciones" diferentes (dependiendo, por ejemplo, de cómo de conservativo es el método). Para comparar manzanas con manzanas, debemos poner todo en la misma resolución, que es lo que se hace en la fila de abajo. Como puedes ver, las imágenes no son exactamente iguales, sino que cada una tiene sus pequeñas peculiaridades. Pero lo que es importante es que, una vez establecidos los márgenes de error, todas ellas son compatibles entre sí. Al final del día se han producido millones de imágenes con cada método, con varios métodos diferentes, y todo cuadra perfectamente, en una imagen que es robusta: un anillo con un diámetro y un grosor perfectamente consistente, y con la parte de abajo a la derecha más luminosa, el ángulo y la proporción de brillo también perfectamente consistentes. (La imagen de la figura 1, derecha, la que acompaña las noticias de los periódicos, es, por cierto, la media de las imágenes de la figura 17, fila de abajo).

Pregunta: He dicho antes que siempre faltan datos y podría haber otras imágenes que igual casaran con los datos. ¿Es posible que, después de todo, esta imagen publicada sea incorrecta? Sí, es posible, pero se ha calculado la probabilidad, y es brutalmente pequeña (del orden de una entre muchos millones). Y la gracia es, que además, los datos que se extraen de esta imagen cuadran perfectamente con los datos que se extrajeron de la imagen del 2017 (masa, radio, etc), lo cual tiene sentido porque, obviamente, un agujero negro de ese calibre no va a cambiar su masa de forma significativa de un año para otro. Es como si hubiéramos medido la distancia de una mesa dos días diferentes: si las dos veces medimos lo mismo, eso nos da más confianza de que la medida es correcta. El hecho de que la parte más brillante haya cambiado de lado indica que hay cambios dinámicos en el agujero negro (como la eyección de un jet*) que sí que se espera que pasen en escalas temporales de un año.

Bueno, perdona por el tocho. Espero que estén las cosas un poco más claras. Si no es así, aquí estoy para lo que haga falta.
La rueda de prensa que hicieron los investigadores del Instituto de Astrofísica de Andalucía (IAA) se puede ver aquí:


Y la página web del IAA respecto a la noticia original (con emails de los investigadores, por si quieres preguntarles algo a ellos) aquí:
https://www.iaa.csic.es/noticias/m87-ano-despues-persistente-prueba-sombra-agujero-negro

*Se espera que la parte más luminosa esté relacionada con el jet de M87, y éste oscila, como se puede ver en el artículo siguiente:
https://scitechdaily.com/m87s-wobbling-jet-a-spin-on-black-hole-mysteries
y el paper:
https://www.nature.com/articles/s41586-023-06479-6
La conexión del agujero negro con el jet se puede ver también aquí:
https://earthsky.org/space/black-hole-jet-1st-image-messier-87/
y el paper:
https://www.nature.com/articles/s41586-023-05843-w

Fortuna

#9 perdona por el tocho
Para nada, el trabajo que has puesto me parece excelente y muy trabajado. Me ha aclarado bastantes cosas.