Tecnología, Internet y juegos
23 meneos
177 clics
ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

Un grupo de investigadores de OpenAI afirmaron haber "encontrado soluciones para 10 problemas de Erdös que previamente no se habían resuelto, y se ha hecho progreso en otros 11". La afirmación parecía indicar que GPT-5 había dado un salto cualitativo importante en el ámbito de las matemáticas, pero la realidad era muy distinta. De hecho, todo resultó ser una exageración que puede perjudicar la reputación de OpenAI de cara al futuro.

| etiquetas: chatgpt , inteligencia artificial , gpt-5 , erdös
21 2 1 K 317
21 2 1 K 317
#2 No es necesario. Los LLM no pueden hacer nada nuevo debido a cómo funcionan. Son repositorios de preguntas cuya respuesta se han aprendido.
#3, haga lo que haga dirás que no es verdadera ciencia, porque los negacionistas de la IA son como los del cambio climático. La evidencia científica es irrelevante.

Y para muestra un botón, a la espera que me justifiques que esto no es verdadera ciencia :roll: : www.larazon.es/tecnologia-consumo/descubre-nuevo-radical-tratamiento-c
#4 Yo ni idea de todo esto, pero me da que eso no es un LLM.
#9, es un Gema tiene la misma arquitectura que un LLM pero entrenado con datos biológicos.

blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/
#3 o sea, que son Googole.

Ya.
#5 Nada que ver. Google es un buscador, la respuesta dependerá de lo que haya encontrado. Un LLM, muy al contrario, contiene información estática.
Los LLM no pueden hacer ciencia nueva.
#1, si cambias la definición de ciencia para que nada de lo que hagan los LLM quepa en ella, absolutamente que no pueden.
#2 hombre, son modelos de lenguaje. solamente tokenizan la informacion para pasarla a otros contextos lingüisticos de forma que no se deje informacion en la recomposición, que no significa que tengan que ser algoritmos de razonamiento puro y duro que escriben teoremas y leyes fisicas.
#1 Esto es rotundamente falso porque, en primer lugar, ya han hecho muchos descubrimientos que se están aplicando por ejemplo en el diseño de circuitería (reduciendo el número de pasos necesarios para multiplicar matrices), para muestra (de un modelo obsoleto): storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a- Y en segundo lugar, hay cientos de arquitecturas diferentes para LLMs, no todos…   » ver todo el comentario
#7 ningún modelo funciona en base a "respuestas pre-aprendidas"

{0x1f344} {0x1f349} {0x1f352}

Por cierto, debes revisar eso del transformer.
#10, si funcionaran a base de respuestas aprendidas no tendrían alucinaciones.
#12 Una alucinación es una respuesta que no se corresponde con el entrenamiento recibido. O al menos eso era el uso que había antes para la palabra "alucinación" en redes neuronales. Pero ahora el significado ha cambiado y en los LLM le llaman alucinación a cualquier respuesta que no nos guste, por mucho que la red neuronal esté funcionando de forma muy correcta.
#14, son matemáticas ninguna respuesta no se corresponde al entrenamiento recibido. Es al contrario, una respuesta que ha aprendido la red durante el entrenamiento, pero que no se corresponde al resultado esperado por quienes la han diseñado.
#10 Como veo que no haces más que usar terminología sin entenderla y hacer afirmaciones sin conocimiento ninguno, además del contraejemplo que te he puesto antes (entre muchos si te molestas en enterarte), el cual rompe por completo tu fantasiosa hipótesis, te dejo un vídeo muy sencillito (en español y todo! para que no te hernies, que veo que pensar y entender antes de afirmar te da pereza metal) donde se implementa un gpt desde cero y se explica muy bien su funcionamiento. www.youtube.com/watch?v=QK4AHZTVf68&t=5656s
#16 Lo vi hace un tiempo. Recuerdo que era un rollazo, como suele suceder cuando quién explica no entiende lo que dice.

¿Qué hay en ese video distinto de respuestas aprendidas?
La combinación de esos datos no es estática. Da diariamente nuevos datos que nunca habían estado en su información.

menéame