Tecnología, Internet y juegos
19 meneos
170 clics
ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

ChatGPT parecía haber resuelto unos problemas matemáticos complejísimos. La realidad era bien distinta

Un grupo de investigadores de OpenAI afirmaron haber "encontrado soluciones para 10 problemas de Erdös que previamente no se habían resuelto, y se ha hecho progreso en otros 11". La afirmación parecía indicar que GPT-5 había dado un salto cualitativo importante en el ámbito de las matemáticas, pero la realidad era muy distinta. De hecho, todo resultó ser una exageración que puede perjudicar la reputación de OpenAI de cara al futuro.

| etiquetas: chatgpt , inteligencia artificial , gpt-5 , erdös
17 2 1 K 283
17 2 1 K 283
#2 No es necesario. Los LLM no pueden hacer nada nuevo debido a cómo funcionan. Son repositorios de preguntas cuya respuesta se han aprendido.
#3, haga lo que haga dirás que no es verdadera ciencia, porque los negacionistas de la IA son como los del cambio climático. La evidencia científica es irrelevante.

Y para muestra un botón, a la espera que me justifiques que esto no es verdadera ciencia :roll: : www.larazon.es/tecnologia-consumo/descubre-nuevo-radical-tratamiento-c
#4 Yo ni idea de todo esto, pero me da que eso no es un LLM.
#9, es un Gema tiene la misma arquitectura que un LLM pero entrenado con datos biológicos.

blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery/
#3 o sea, que son Googole.

Ya.
#5 Nada que ver. Google es un buscador, la respuesta dependerá de lo que haya encontrado. Un LLM, muy al contrario, contiene información estática.
La combinación de esos datos no es estática. Da diariamente nuevos datos que nunca habían estado en su información.
#10, si funcionaran a base de respuestas aprendidas no tendrían alucinaciones.
Los LLM no pueden hacer ciencia nueva.
#1, si cambias la definición de ciencia para que nada de lo que hagan los LLM quepa en ella, absolutamente que no pueden.
#1 Esto es rotundamente falso porque, en primer lugar, ya han hecho muchos descubrimientos que se están aplicando por ejemplo en el diseño de circuitería (reduciendo el número de pasos necesarios para multiplicar matrices), para muestra (de un modelo obsoleto): storage.googleapis.com/deepmind-media/DeepMind.com/Blog/alphaevolve-a- Y en segundo lugar, hay cientos de arquitecturas diferentes para LLMs, no todos…   » ver todo el comentario
#7 ningún modelo funciona en base a "respuestas pre-aprendidas"

{0x1f344} {0x1f349} {0x1f352}

Por cierto, debes revisar eso del transformer.

menéame