emulenews

#6,#7,#8 Hay dos cuestiones separadas e importantes.

Por un lado, la posible observación de modos B primordiales gracias a Planck. Mucho menos sensible que BICEP2, los buscará en un 70% del cielo, un área unas 30 veces mayor que la ventana de BICEP2. Si el valor de r > 0,05 (BICEP2 apunta a r > 0,1) entonces Planck los observará. Pero si r < 0,05 será incapaz.

Y por otro lado, la colaboración entre Planck y BICEP2 para tratar de estimar (estadísticamente) la contribución del polvo galáctico en la ventana de BICEP2 con objeto de limpiar la señal y desvelar los modos B primordiales. El proceso es muy complicado por las grandes diferencias en sensibilidad entre Planck y BICEP2. Si la contribución del polvo a la señal de BICEP2 es menor de un 80%, se podría limpiar desvelando modos B en la señal de BICEP2 (con r < 0,1). Pero si la contribución del polvo es mayor, la limpieza será casi imposible.

Para acabar, sobre BICEP2, la verdad, Planck va a poder aportar bastante poco. En primavera se espera la publicación de los datos de Keck (5 detectores tipo BICEP2, que durante un año han funcionado a 2 frecuencias). Lo más relevante sobre BICEP2 vendrá gracias a Keck. Pero nadie espera que sea concluyente. Seguramente tendremos que esperar a los datos de BICEP3 en 2017.

Lo siento, la ciencia va despacio.

s

#10 Gracias. Es un placer leer tus intervenciones aunque alguna me deja un poco pesimista A ver si hay suerte.


'**********
Pero si la contribución del polvo es mayor, la limpieza será casi imposible.
'**********

¿Esto implica que no se pueda en un futuro con mejor tecnología resolver el problema si se da este o no se puede afirmar nada en ese sentido?

barni

#10 Gracias por la info!! Me gustaría saber cuál es tu opinión/posición respecto a los resultados que se anunciaron de BICEP2... ¿tu también crees que se apresuraron en considerar los datos observados como provenientes de modos B primordiales y no debidos al polvo galáctico?

emulenews

#3 la pizarra no era usada por la NASA. La hizo fabricar el fotógrafo de LIFE para hacer una foto "estéticamente" atractiva.

D

#4 pues vaya, gracias

¿Pero está confirmado que no lo usaron, aparte de para esas fotos?

emulenews

#10 el tiempo de ejecución del memalgoritmo es polinomial (lineal, de hecho). Lo que sería no polinomial es el tiempo de simularlo en un ordenador convencional.

El problema de la memcomputación es que no es escalable. La razón es que hay que distinguir entre un número exponencial de frecuencias en un intervalo finito del espectro. Obviamente hay límites físicos que impiden escalar el sistema más allá de los "problemas de juguete". Se puede imaginar un sistema que amplifique la diferencia entre las frecuencias cercanas de interés, pero no está demostrado que esta amplificación se pueda realizar con un número polinomial de recursos.

#11 cuidado, no se trata de una computación paralela con un número exponencial de procesadores. El número de procesadores crece linealmente. Lo que crece de forma exponencial es el número de estados (frecuencias en este caso) en cada procesador.


#11 dice "no es P igual a NP según la definición original de ambas clases". Obviamente dicha frase la has copiado del primer párrafo de mi artículo. ¿"titulares gancho"? Sí, lo acepto, está copiado del titular del artículo técnico...

emulenews

#5 se puede simular en un ordenador normal (igual que un ordenador cuántico también se puede simular), pero se pierde la eficiencia del no determinismo y se pierde la "magia" memcomputacional (ya no hay prueba de que NP=P).

A

#9 Claro, entonces el tiempo de ejecución es no polinomial. Pero es que la memcomputación, si lo he entendido bien, requiere que el número de procesadores aumente en orden polinomial respecto al tamaño del problema. Si contamos el tiempo de ejecución de cada uno de esos procesadores de forma individual (eso es lo que significaría simularlo en un ordenador normal), ¿no se volvería a convertir en un problema no polinomial? Por eso digo que en realidad no ganamos nada.

emulenews

#10 el tiempo de ejecución del memalgoritmo es polinomial (lineal, de hecho). Lo que sería no polinomial es el tiempo de simularlo en un ordenador convencional.

El problema de la memcomputación es que no es escalable. La razón es que hay que distinguir entre un número exponencial de frecuencias en un intervalo finito del espectro. Obviamente hay límites físicos que impiden escalar el sistema más allá de los "problemas de juguete". Se puede imaginar un sistema que amplifique la diferencia entre las frecuencias cercanas de interés, pero no está demostrado que esta amplificación se pueda realizar con un número polinomial de recursos.

#11 cuidado, no se trata de una computación paralela con un número exponencial de procesadores. El número de procesadores crece linealmente. Lo que crece de forma exponencial es el número de estados (frecuencias en este caso) en cada procesador.


#11 dice "no es P igual a NP según la definición original de ambas clases". Obviamente dicha frase la has copiado del primer párrafo de mi artículo. ¿"titulares gancho"? Sí, lo acepto, está copiado del titular del artículo técnico...

emulenews

#1 hoy todos los físicos pensamos que el modelo estándar es un desscripción "efectiva" de la realidad, es decir, no es la teoría definitiva, porque hay muchas cosas que sabemos que no explica. Por tanto, la realidad es más complicada que la descrita por el modelo estándar. La teoría definitiva podría ser más sencilla, pero predecir más cosas, o ser más complicada, no la conocemos aún.

D

#2

A eso mismo me refiero, toda una taxonomía de partículas que crece según se van descubriendo propiedades en las colisiones que tapen los huecos en las prediccio es. A lo mejor esas descripciones tapan una mecánica mucho más elemental y el spin, la masa o el color no sean más que reflejos discretos de esa mecánica simple.

En cualquier caso, mi reflexión es la de un neófito

emulenews

Si a alguien le interesa mi opinión sobre el trabajo científico "Sobre los axiones que podría haber observado XMM-Newton de la ESA" http://francis.naukas.com/2014/10/21/sobre-los-axiones-que-podrian-haberse-observado-en-el-sol/

pichorro

#51 ¡Gracias! Una pregunta relacionada con este caso pero extensible a otros muchos, ¿por qué crees que los medios se han hecho eco de una forma tan exagerada? ¿no crees que ciertos investigadores "abusan" de los medios habituales para ganar notoriedad?

emulenews

En mi opinión, este Premio Nobel ha querido premiar a Nakamura (que aparece en todas las quinielas desde 2002). Lo que en mi opinión molesta a Holonyak es que le acompañe Akasaki; de la época de Akasaki hay muchos que podrían haber acompañado a Nakamura, incluido el propio Holonyak. Si el premio hubiera sido sólo a Nakamura creo que Holonyak no estaría molesto.

emulenews

#7 la verdad, no sé qué pensaron, pero creo que les cegó tener 7 sigmas sin polvo en una región en la que parecía que no había polvo; supongo que pensaron que aunque hubiera algo de polvo podrían perder algunas sigmas, pero 7 son una barbaridad y se sentían muy seguros.

Como en el caso de OPERA, seguro que hay detalles personales entre los jefes que han llevado a la situación actual. Por fortuna en ciencia se aprende de los errores y la comunidad modera todos los excesos. Las decisiones de cambiar el diseño del Keck-array sobre la marcha y de colaborar con Planck son muy positivas. Creo que el año próximo serán consideradas como una gran decisión que nunca se hubiera tomado sin el "fiasco" de las 7 sigmas. Un error grave "acientífico" convertido en un gran acierto "científico".

pichorro

#8 Estoy contigo. Ojalá de esto resulte algo positivo a largo plazo.

emulenews

#5 La asociación entre 5 sigmas y un descubrimiento es muy perniciosa. Confunde a muchos expertos.

Cuando se obtienen indicios a 3 sigmas, y luego a 4, para acabar con 5 sigmas, los acontecimientos son muy diferentes a cuando se obtienen indicios a 5 sigmas y luego a 7 sigmas. Hay expertos que se confunden con esto.

La observación de algo por primera vez es sólo eso, la primera observación. Las sigmas que tenga no significan nada (lo que ves muy claro depende de lo claro que lo quieras ver). Hasta que haya una nueva observación con más sigmas no significa nada. Los medios y los expertos que buscan eco mediático confunden muchas veces el progreso científico con ser famosos y ver su foto en el New York Times.

Pero son personas y debemos aceptar que actúan como tales. La ciencia la hacen personas. Dentro de 50 años cuando leamos los libros de historia de la ciencia sobre los grandes descubrimientos de nuestra época actual nos gustará disfrutar sabiendo que fueron personas (aunque ahora mismo nos moleste que sean personas como nosotros, con sus virtudes y sus defectos).

pichorro

#6 Estoy de acuerdo con lo que dices, pero no veo de qué forma "justifica" lo que ha pasado con BICEP2.

Tanto si se trata de 3 sigmas como de 5, hay que saber cuál es el background (foreground en este caso) de la observación. De lo contrario el número de sigmas carece de significado. BICEP2 metió la pata hasta el fondo en la estimación de su background, lo que les llevó a realizar afirmaciones con implicaciones muy profundas para la física (inflación, gravedad cuántica...). En mi opinión, es un fallo muy grave y prefiero creer que fue por "despiste". Por otro lado, también promovieron cierto revuelo mediático para darle más bombo al asunto (supongo que habrás leído sobre la visita sorpresa que le hicieron a Andrei Linde). Se mire por donde se mire, es mala práctica y, por desgracia, repercute muy negativamente en la imagen que el público general tiene de los científicos. Da la impresión de que ya no son ni fiables...

emulenews

#7 la verdad, no sé qué pensaron, pero creo que les cegó tener 7 sigmas sin polvo en una región en la que parecía que no había polvo; supongo que pensaron que aunque hubiera algo de polvo podrían perder algunas sigmas, pero 7 son una barbaridad y se sentían muy seguros.

Como en el caso de OPERA, seguro que hay detalles personales entre los jefes que han llevado a la situación actual. Por fortuna en ciencia se aprende de los errores y la comunidad modera todos los excesos. Las decisiones de cambiar el diseño del Keck-array sobre la marcha y de colaborar con Planck son muy positivas. Creo que el año próximo serán consideradas como una gran decisión que nunca se hubiera tomado sin el "fiasco" de las 7 sigmas. Un error grave "acientífico" convertido en un gran acierto "científico".

pichorro

#8 Estoy contigo. Ojalá de esto resulte algo positivo a largo plazo.

emulenews

Este tipo de cuestiones son muy instructivas. Por ejemplo, ¿cuántas hormigas hay en tu casa? La respuesta se puede estimar sabiendo cuántas has visto durante la última semana.

emulenews

En sentido estricto, duplicada por 17 minutos, pero no soy yo la persona más adecuada para indicarlo.

emulenews

#3, leí que había llegado a Tenerife el sábado 13, pero parece que llegó el viernes 12. He cambiado la entrada.

D

#11 El viernes día 12 estaba en la isla de La Palma, en Santa Cruz de La Palma, paseando por la Calle Real. Había mucha gente que ni sabía quien era. Uno me dijo "ese debe ser un futbolista famoso que se quedó en silla de ruedas".

D

#12 Lol, te reirias a gusto...

Aparte del offtopic de cocopino que no sabe a quien vio ni donde ni cuando, es obvio que si la particula de higgs es lo que dicen que es es posible que pudiera destruir el universo si se dan las condiciones tan imposibles que Hawking dice. Esta nueva fisica que se abre con el acelerador de particulas y los nuevos descubrimientos tardaran en ser comprendidos a fonfo.

D

#14 Si según dicen nada puede viajar a mayor velocidad que la luz, si en el planeta Tierra haces un experimento y pones en marcha la destrucción del Universo, supongo que llevará muchísimo tiempo acabar con él y con el baremo de medida de tiempo de la vida de un ser humano sería como si el Universo siguiese existiendo para siempre (o para casi siempre), ¿no?

D

#15 Bueno si el campo de distorsion temporal cubre la tierra el tiempo quedaria suspendido dentro del campo, pero ten en cuenta que al mismo tiempo esa particula pesaria tanto como el mismo universo con lo que seria incompatible con la vida, vamos que la palmariamos todos, aparte dentro del campo de distorsion temporal de un agujero negro es medio segundo mientras que fuera del campo son cinco mil años, vamos que siempre es mejor estar lo mas alejado de un suceso de estas caracteristicas.

D

#3 #11 Es Stephen Hawking, el espacio-tiempo lo maneja mejor que vosotros lol lol

D

#19 Cualquier meneante sabe más que nadie acerca del espacio-tiempo y acerca de todos los temas. Yo no veo que Hawking sea meneante.

D

#21, aprende de #20. Para ser buen troll hay que ser directo, una pequeña frase que genere polémica. No la chapuza de comentarios que has dejado en este hilo. Te doy un 3/10 y te mando pa Junio, y eso que venías unos días haciéndolo bastante bien.

emulenews

#35 ¡Cuidado con la wikipedia! El "Grupo Local" no es un cúmulo galáctico. Es un grupo de galaxias que pertenece a un cúmulo galáctico, llamado desde hace mucho tiempo "Cúmulo de Virgo". Por supuesto, este cúmulo debe pertenecer a un supercúmulo y en algunos sitios de la web le llaman "Supercúmulo de Virgo". Pero, cuidado, llamar a dos cosas con el mismo nombre no es adecuado y los astrofísicos no suelen hacerlo. Nuestro supercúmulo no tenía nombre y quienes llamaban supercúmulo de Virgo al supercúmulo que contenía al cúmulo de Virgo ignoraban la diferencia entre supercúmulo y cúmulo.

Por ello, ahora que hemos determinado los cúmulos galácticos (entre ellos el de Virgo) que pertenecen a nuestro supercúmulo galáctico ha habido que ponerle un nombre nuevo.

emulenews

#45 He escrito una entrada en mi blog aclarando (espero) estos puntos y cómo funciona el experimento.

emulenews

#45 No, no te confundas, no lo están. En el experimento de Zeilinger y su grupo, el haz verde incidente está polarizado horizontalmente respecto al eje del cristal no lineal NL1 de tal forma que los dos fotones (rojo y amarillo) que lo abandonan están polarizados horizontalmente; por tanto su estado no está entrelazado, sino que es un estado producto (o separable) tipo Hr>Ha>. Si el fotón verde incidente tuviera una polarización a 45º respecto al eje del cristal NL1 entonces los fotones rojo y amarillo estarían entrelazados (estado entrelazado tipo Bell Hr>Ha>+Vr>Va>).

¿Has leído el artículo técnico? Está en ArXiv y es gratis. Tienes que leer los primeros párrafos de la introducción.