edición general
27 meneos
253 clics
Retan a ChatGPT a resolver un problema físico 'imposible' y lo que consigue en 12 horas dice mucho del futuro que nos aguarda

Retan a ChatGPT a resolver un problema físico 'imposible' y lo que consigue en 12 horas dice mucho del futuro que nos aguarda

Un experimento reciente con GPT-5.2, el modelo de inteligencia artificial desarrollado por OpenAI, ha sorprendido a la comunidad científica después de que el sistema lograra proponer y demostrar una nueva fórmula en física teórica de partículas en menos de 12 horas. El resultado aparece en una prepublicación disponible en arXiv centrada en el estudio de las amplitudes de dispersión de gluones.

| etiquetas: ia , física. llm
Que suerte, conmigo nunca acierta, se inventa hasta fake news
#3 Lo de las IAs es como la mano de mono de los deseos.

"Quiero un sándwich de pavo, y no quiero que el pavo sea zombi, ni quiero convertirme en un pavo"

youtu.be/h7pO1PbMaU0
Pues muy mal, ahora le va a quitar también el trabajo a los físicos. Tendrán que reconvertirse en fontaneros.
me mostraba escéptico, de primeras, hasta que he leído lo que dice Francis :-)
El le da verosimilitud
francis.naukas.com/2026/03/01/el-primer-gran-exito-de-la-inteligencia-
#13 Si lo dice Francis Villatoro es que el resultado es fetén.
#13 ¿Está traducido el articulo o esta en villatoriano?
Fantástico, para algunas cosas la IA es increíble. Una maravilla.
#21, qué porcentaje de personas crees que serían capaces de responder correctamente. Yo también tengo algún ejemplo de cosas que fallan en todos los modelos, pero son cosas muy específicas y que no interfieren en nada de para lo que los uso.
#22 No es un tema de conocimiento, sino de aplicar la lógica. Los LLM no tienen ninguna capacidad lógica, sólo aprenden las respuestas y mi pregunta no la tienen entrenada.
#23, vuelvo a repetir, tu prrgunta "de lógica" la pueden responder la mayoría de personas o es algo tan rocambolesco y ambiguo que no? Lo digo porque ya me he encontrado varios ejemplos de eso. Por otro lado y tal y como demuestra este meneo y tantos otros está claro que los LLM sí pueden generar conocimiento aplicando la lógica fuera del rango de entrenamiento, no es algo opinable, discutible o que admita debate, hay pruebas empíricas de que lo hacen. El autor del video que enlaza el caudillo confunde simplificar con generalizar y de ahí todo mal.
#24 Todo el mundo puede, si dedica unos minutos a buscar la respuesta en google. Si puede hacer sin saber y sin buscar nada, sólo pensando un poco.

La pregunta es: "En una zona de la Tierra con gravedad más baja que el resto, ¿el nivel del mar sube o baja?"

Ni una sola IA puede acertar con la respuesta, pues no la tienen entrenada y su capacidad lógica es ninguna. Evidente que hay algo en su entrenamiento que les despista y no son capaces de salirse de ahí. Es el mismo efecto que en un chat con una IA cuando se empeña en una respuesta incorrecta, que no es ya posible apartarlo de ahí.
#25, ok, aceptabdo que para ti la inteligencia de los LLM es una categoría discrecional que viene determinada únicamente por la capacidad de dar respuesta a esta pregunta y que solo admite dos categorías o es inteligente o no lo es. El día en que un LLM pueda responder esta pregunta correctamente cambiarás tu opinión o intentarás inventarte otra pregunta al tún tún que falle a ver si la encuentras? No me parece una postura científica, porque las conclusiones tienen que amoldarse a las…   » ver todo el comentario
#28, esto ejemplifica lo que quería decir en #26.
#30 Desde luego que lo que no ha pasado es que de repente haya aprendido a pensar. No hay pues otra posibilidad.

Al final queda la pregunta que no ha cambiado desde hace unos años ya: Es la IA una colección de trucos aprendidos o es algo más?
#32, pero por qué tenemos que utilizar palabras grandilocuentes que a la vez son profundamente vagas como pensar. Prefiero tratarlo como un problema de ingeniería. ¿Es capaz de solucionar problemas, puede aplicar la lógica aprendida para generar nuevo conocimiento, cómo debemos evaluar los modelos?
#33 Una red neuronal aprende respuestas, no lógica. Un LLM no tiene la capacidad de aplicar la lógica. Cuando le metan dentro un aplicador de lógica opinaré otra cosa, pero de momento de eso no hay.

Lo apañan a base de fasear la respuesta realimentado el contexto, pero esto es jugar a adivinar. No es razonar.
#34 "Lo apañan a base de fasear la respuesta realimentado el contexto, pero esto es jugar a adivinar. No es razonar. "

"Muy bien. Ya le han entrenado esa respuesta. "

No hay más preguntas, señoría. Por cierto, esa forma de "razonar" tuya la superaron los LLMs desde hace ya dos años.
#37 Yo soy fan de grupos musicales. No acabo de comprender esto de ser fan de una tecnologia con hype. Me parece muy cutre.
#38 Efectivamente, las fangirls y haters de la tecnología básicamente vivís en algo que se llama edad del pavo, y se cura con la edad.

Por cierto, que en mi comentario te señalo una contradicción bastante cutre. Tuya, no de las IAs, aunque parezca una alucinación de las mismas, pichón.
#27 Muy bien. Ya le han entrenado esa respuesta.
#28 Claro, descubrieron que un user en Menéame les hacía la pregunta y que estaban dudando de las IAs. El mundo de las IAs estaba en peligro por joseiahallen, user de Menéame. Han ido raudos antes de que #0 vaya a preguntarle, en una operación que han camuflado con una gran cortina de humo que han hecho solo para despistar (la guerra de Irán) para que no se note.

Qué mala suerte que cuando tenías la pregunta definitiva que ninguna IA era capaz de responder, justo cuando lo va a comprobar…  media   » ver todo el comentario
#36 El ignore es por las faltas de respeto.
#39 Coño, faltas de respeto. Si te he hablado con amor, cariño.
#27 Veo que efectivamente todos los modelos están respondiendo correctamente a mi pregunta. Todos ellos a la vez. Fallaban ayer, que lo probé. Es de lo más interesante. Hasta deepseek está actualizado. ¿No será que realmente hay uno solo?
Voy a votar negativo esta noticia porque es un bulo. ChatGPT no ha descubierto nada que no hayan hecho los humanos antes. Lo que hizo fue simplificar algunas ecuaciones.

Aquí el video que lo desmonta: ChatGPT "Physics Result" Reality Check: What it Actually Did
www.youtube.com/watch?v=3_2NvGVl554
#16, buen intento enlazando un canal que no es de física sino que dedica el 100% de sus vídeos a despotricar contra la IA, pero el propio Francisco Villatoro (que sí es físico) explica aquí: francis.naukas.com/2026/03/01/el-primer-gran-exito-de-la-inteligencia- que no es ningún bulo: la IA no "descubrió una nueva ley de la física", pero tampoco se limitó a simplificar ecuaciones, lo que hizo fue encontrar una fórmula general para unas amplitudes de gluones a partir de casos concretos que ya se conocían, y luego eso se demostró y verificó con métodos normales de física teórica. Es decir, ha creado conocimiento nuevo te guste o no caudillo.
#19 Lo mejor de lo mejor ahora pasa por ser Claude 4.6. Acceder desde Sonnet es el standard según sus creadores. Lo hago y el resultado a mi pregunta de siempre, que nunca ninguna IA ha acertado, sigue siendo la respuesta errónea.
¿Quieres que te lo redacte con melones como si fuera un problema de un antiguo cuaderno rubio?
#29 en matrix los ciudadanos no son felices.

Al contrario, en el documental se explica que intentaron ofrecer un entorno idílico como el que describes y que eso en absoluto generó felicidad, que el ser humano necesita conflictos, necesita problemas para poder sentirse feliz. Explica que el tuvieron que generar un mundo similar al previo a Matrix para conseguir que el ser humano fuera lo más feliz que es capaz de ser.
Psss, eso es trampa, no?
Este fin de semana estaba con unos amigos y discutiamos sobre la sensación de que los políticos no están para encontrar soluciones a los problemas sino para "hacerse una foto simulando que hacen algo" de cara a las siguientes elecciones.

A veces construyen algo, pero luego no lo mantienen porque "mantener no de foto", y mucho menos si mantienes algo que construyó alguien de otro partido.

Decidimos que la visión cortoplacista y de "trincar lo que pueda mientras esté al…   » ver todo el comentario
#6 "haz lo que puedas para que los ciudadanos sean felices"

Y así nació Matrix.
#8 en matrix los ciudadanos no son felices.

Hay un libro, distopico, en que los ordenadores toman el control y una opción es "descargarte" a un mundo virtual, que para ti es indistingible del mundo real (puedes comer, tocar, ver... ) y donde tienes una casa propia y un dinero virtual al mes, con el que puedes hacer lo que quieras, cada mes tendrás lo mismo y si te queda algo del mes pasado, desaparece, así que no hay desigualdades, todo el mundo tiene lo mismo. Las cosas…   » ver todo el comentario
#6, este planteamiento parte del error de base de que existe una única política óptima cuando todo depende de lo que quieras optimizar. ¿Quieres crecimiento económico a toda costa o prefieres que no haya tanta desigualdad? ¿Cuanta importancia deben tener las políticas verdes? ¿Si logramos que nuestras empresas se hagan con el control del petróleo, podemos saltarnos el derecho internacional a la torera? Nuestro sistema económico genera de forma inherente una serie de contradicciones irresolubles que lo único que se puede hacer es tratar de mitigar, pero existirán y por inteligente que sea la IA va a requerir de la toma de decisiones y elección de prioridades.

En lo que sí le veo recorrido es en la justicia.
#6 Echaría Prozac en el agua del grifo...
#6 Cuidado, en "Raised by wolves" la IA hace involucionar a unos seres humanos porque considera que así serán más felices, en plan asalvajados como animales.
A ver, que el truco está en las 12 horas. ¿Sabéis el pastizal que cuesta usar GPT durante 12 horas de cálculo? Para un problema de estas características y para hacerse publicidad, vale, pero no es algo que podamos usar tú o yo,
#9 Como sociedad hemos construido el LHC gastando un pastizal para avanzar en el conocimiento científico, así como montones de otros experimentos para ese mismo fin, financiar horas de una IA para conseguir resultados es perfectamente razonable.
#9, ni tú ni yo vamos a tener que resolver problemas de esta complejidad. Con que tengamos acceso a una fracción de esta inteligencia, nos basta. Además, los modelos son cada vez más eficientes.
#2 #9 No se trata de versiones normales normales del ChatGPT, si siquiera de pago. En estos casos los investigadores contactan directamente con OpenAI que les da acceso ilimitado a modelos internos que aún no están en producción.
Y no se le acabaron los tokens? Qué cabrones!

menéame