140 meneos
2498 clics
OpenAI se encuentra de repente en serios problemas: "Van a terminar como lo hizo MySpace. "
Lo que antes era una ventaja considerable sobre la competencia de OpenAI gracias a su exitoso chatbot con IA ChatGPT se ha convertido en una ventaja mínima. [En inglés]
|
Pero ChatGPT está siendo arrasado por Gemini y Claude
Pero ChatGPT está siendo arrasado por Gemini y Claude
ChatGPT de pago le da mil vueltas a Gemini.
Si tienes una ia que es la repera pero no dejas probarla lo suficiente, o los resultados sin pagar son de pena. Lo más lógico es que te vallas a una suscripción de otra ia que aunque inferior, los resultados gratuitos te han dado mejor resultado ¿no?
Es decir, aunque seas mejor, si ante las pruebas otra te da mejores resultados, acabas con la segunda.
El problema es que ese modelo te funciona si realmente eres la mejor con mucha diferencia y el boca a… » ver todo el comentario
No lo he investigado mucho pero he leído por ahí que vale una cuenta vieja de tu universidad o instituto que todavía funcione y que también hay instituciones académicas que dan cuentas gratuitas a cualquiera y que también valen.
Solamente Perplexity, usado como buscador, me vale para algo.
Pero fue salir deepseek que hacía más de manera gratuita y desde entonces, que les peten a OpenAI, que ya no los uso ni para consultas básicas.
Reconociendo imágenes, deepseek vale bien poco también, en eso cojea también mucho. Le tengo que estar "traduciendo" mis gráficos a texto, y creo que en eso chatgpt no tiene problema.
A nivel generalista ciertamente parece que Gemini va muy por delante del resto.
Así que ni agua, si no es correcto, errónea y a correr, que tiene karma de sobra.
Gemini-3 es más grande, por ejemplo le cabe más contexto, pero las diferencias de los modelos actuales con los anteriores son insignificantes en la práctica.
Ahora mismo Gemini-3 mantiene su hype porque no está disponible sin pagar, pero por supuesto ya hay evaluaciones
www.lesswrong.com/posts/8uKQyjrAgCcWpfmcs/gemini-3-is-evaluation-paran
#27, muchos de los benchmarks a los que te refieres mantienen el conjunto de datos de evaluación como privados para evitar precisamente que los sobreentrenen para sacar buenas puntuaciones. Cualquiera que lo haya probado sabe que es cualitativamente superior a GPT-5.
En este caso el ganador va a ser quien llegue primero en tener una AGI.
Los LLM actuales no tienen ninguna capacidad de aprendizaje ni de razonamiento. A base de evolucionarlos no se va a lograr nuevas capacidades. Es entonces necesario algo nuevo. Algo que no se tiene y no se sabe como tendría que ser.
Hasta el hype de la AI ha dejado de nombrar la AGI.
Apegandonos a la definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.
Y en base a los casos de uso que quieras:
- Resolver un problema matemático
- Programar
- Interpretar un texto legal
- Pasar un test de comprensión lectora
- Inventarse poemas que riman
- Superar tests de inteligencia
Los LLM razonan. Pero te vuelvo a preguntar a ti, sin entrar en vaguegades pseudo-filosóficas sino en tests verificables. ¿En qué te basas para decir que los seres humanos razonan y los LLM no?
Escogiendo "la continuación mas coherente" no habrias descubierto ninel teorema de arquímedes y menosagregando una pizca de aleatoriedad para que parezca "mas humano"
A no ser que pienses que los científicos cuando desarrollan sus teorías entran en un trance interdimensional que hace que escriban sobre el papel sus teorías en un estado alterado de la conciencia en lugar de llegar a ellas encontrando patrones en las observaciones, es decir procesando información tal y como hace un modelo.
Uso GPT 5.1 a diario, en el trabajo y en lo personal. Y ahora gemini, pero todavía no lo tengo de pago. Estamos pensando en sustituir uno por otro.
Yo diría que su mayor problema es que no tienen la capacidad para "darse cuenta" de que se están equivocando en su respuesta o que han tomado un camino de razonamiento incorrecto.
En muchas ocasiones, GPT en concreto, se enroca en dicho razonamiento incorrecto. Teniendo que abrir una nueva… » ver todo el comentario
Un LLM jamás habria llegado a la decisión de dejar eurovisión
En serio, mírate el video de Bernie Sanders y deja de actuar como un negacionista del cambio climático.
youtu.be/qR1ykKzYp6c?si=Rt_10swKZD8BzQiY
Mi respuesta: " Dejar Eurovisión".
Necesitas ver un vídeo?
Me he limitado a exponer un hecho.
Menuda empanada tienes...
Recordemos que según la RAE razonar es: Ordenar y relacionar ideas para llegar a una conclusión.
Vamos, que me fío más de ChatGPT que de muchas personas
Debes considerarlo como palabras totalmente distintas.
Un concepto es ante todo una información que existe aparte de los datos. Los conceptos se relacionan entre sí formando el conocimiento. Para razonar es preciso operar sobre los conceptos. No hay nada de esto dentro de un LLM.
En cuanto a al razonamiento, yo creo que hay que admitir que es inquietante la capacidad de tratar con conceptos abstractos a partir de un puro programa estadístico que simula las conexiones neuronales.
Es difícil no pensar que surge una suerte de emergencia de proto-razonamiento a partir de este proceso.
Diría que aún no sabemos donde va a llegar a base de ajustes e ideas felices de mejora.
Las más modernas, a base de "transformers", no son más que una serie de multiplicaciones de matrices.
Un LLM no tiene ninguna capacidad de tratar con conceptos. Sólo genera palabras que deduce de unas estadísticas. Nos da la siguiente palabra más probable. No sabe hacer nada más.
Al no poseer conceptos, no puede razonar.
Los LLM han casi llegado ya a su máximo nivel de desarrollo. Hacerlas aún más grandes no sirve de nada. A partir de ahora sólo veremos mejoras en el entrenamiento. Esto es, hasta que a alguien se le ocurra una nueva tecnología.
Luego están los demás avances, que también son otros modelos matemáticos para conseguir alineamiento y conceptualización.
Al confundir e intercambiar una con la otra es cuando se producen las alucinaciones, que son por lo tanto inevitables.
No tienen ninguna capacidad de comprensión. Son simples máquinas de mezclar palabras. Por supuesto, no tienen pensamiento de ninguna clase.
Luego está nuestra capacidad de tratar con el mundo físico, llevar a cabo experimentos (empirismo) y llegar a nuestras propias conclusiones. Además de observar reglas de deducción lógicas que por supuesto hemos aprendido a partir del corpus de conocimiento anterior, y hemos validado porque tienen sentido en tanto no encontramos contraejemplos válidos.
Flipo, pero es que es flipante.
Un LLM no tiene esta capacidad, sino que traga siempre.
porque tienen sentido
Un LLM no sabe si algo tiene sentido o no.
Aquí tienes la explicación completa en castellano, manteniendo el nivel de detalle:
---
¿Puede un LLM “razonar”?
Depende del significado que adoptemos para “razonar”.
Si lo comparamos con el razonamiento humano, no, un modelo como yo no razona igual que una persona: no tengo conciencia, ni intenciones, ni comprensión interna del mundo.
Pero si hablamos de razonamiento funcional, es decir, la… » ver todo el comentario
Y sí, el debate puede que canse, pero hay que darlo igual que con los negacionistas del cambio climático, porque sino, la sociedad penasará que aquí no pasa nada y no hay que tomar ninguna medida todo es un bluf inventado por un departamento de márqueting.
Mientrastanto, te recomiendo que mires lo que dice Bernie Sanders, a lo mejor aprendes algo: youtu.be/qR1ykKzYp6c?si=dqQg3itOFOKGBbnZ
O sea que dice que SI es un algoritmo
Tambien dice que aunque le podemos llamar "razonar" a lo que hace, no es ni equiparable ni comparable al razonamiento humano.
Vamos, lo mismito que dices tú..
Pero más allá de esto, lo que nos importa para determinar si razona o no, es si puede seguir una secuencia deductiva de pasos para llegar a una conclusión. ¿Hace… » ver todo el comentario
- ChatGPT 5.1 es mejor para chats "habituales", hacerle preguntas y demás
- Claude Opus 4.5 es mejor para programación
- Gemini 3 Pro es un mix de ambas, pero no supera ninguna de las dos en sus "puntos fuertes". Pero está evolucionando mucho más rápido que ChatGPT
Estoy a punto de votar sensacionalista, aporta pocos datos, y los pocos que da son en favor de google. Dice los usuarios activos de google, pero no dice pagan por el servicio.
Esto parce un anuncio pagado por google.