#6 Confundes genialidad singular con capacidad de razonamiento experto.
Ningún humano vivo ha creado algo comparable a la relatividad. ¿Eso significa que los físicos actuales no tienen ya inteligencia?
Está bien defender el ego humano, pero hay que ser pragmático también:
1960s: "La IA nunca jugará ajedrez decentemente"
1997: Deep Blue gana a Kasparov → "Bueno, el ajedrez es solo fuerza bruta"
2016: AlphaGo gana a Lee Sedol → "Go es solo reconocimiento de patrones"
2023: GPT-4 aprueba exámenes de abogacía → "Solo memoriza respuestas"
2024: O1 hace matemáticas olímpicas → "Pero no ha creado teorías como Einstein"
2030 (predicción): IA gana Nobel → "Pero no tiene consciencia"
Aunque por cierto Demis Hassabis y John Jumper ganaron el Nobel de Química 2024 gracias a AlphaFold, precisamente por resolver un problema que llevaba 50 años sin solución.
Hay mucho miedo a la IA, pero la IA ya está aquí; o nos ponemos las pilas o nos va a pasar por encima, como le pasa a este artículo, con muchos desatinos. Es un artículo para 2023 no para 2025.
Uno de los errores da título al artículo, que es equiparar los asistentes domésticos (Alexa, Siri, Google home) con los modelos de lenguaje de frontera actuales, que de torpes ya tienen más bien poco; otra cosa es que aún no están desplegados para todo el público o en su mejor versión sin pagar.
DeepSeek-V3 ha demostrado capacidades de razonamiento verificables que superan el rendimiento humano experto en física, matemáticas olímpicas y diagnóstico médico; por no hablar de los norteamericanos que están en la cresta de la ola (Claude, Grok, Chatgpt y gemini)
Hay burbuja financiera e hiperfinanciación que dudo que logren los beneficios económicos suficientes para compensar la inversión, al menos a corto plazo. Pero eso no quita que los últimos modelos de lenguaje razonadores son… » ver todo el comentario
#8 En la ciencia siempre han existido este tipo de seres. La ciencia no es inmune a las estafas o desgraciados.
Lo que pasa es que la ciencia se protege mediante: 1) el método científico con la experimentación y los datos objetivos; y 2) el consenso de la comunidad científica mediante la revisión por pares
El problema es que 2) es como la democracia... Que puede ser degradada, manipulada o influenciada por agentes externos.
Y pensar que gracias a este tipo ahora hay millones de cenutrios con la cabeza llena de absurdeces... Da miedo pensar el daño que una sola persona, que solo perseguía el lucro personal, puede causar a la humanidad. El párrafo que lo resume todo:
"Nueve meses antes del anuncio, en junio de 1997, Wakefield había presentado una solicitud de patente para una vacuna de sarampión de un solo antígeno que él mismo describía como “probablemente más segura”. Con esta vacuna y con kits de diagnóstico para la ficticia “enterocolitis autista” (introducida en aquel paper) esperaba hacer al menos 43 millones de dólares al año. El estudio de The Lancet era, básicamente, un folleto publicitario disfrazado de investigación académica para alejar a sus potenciales clientes de la competencia y posicionar su propio producto."
Ningún humano vivo ha creado algo comparable a la relatividad. ¿Eso significa que los físicos actuales no tienen ya inteligencia?
Está bien defender el ego humano, pero hay que ser pragmático también:
1960s: "La IA nunca jugará ajedrez decentemente"
1997: Deep Blue gana a Kasparov → "Bueno, el ajedrez es solo fuerza bruta"
2016: AlphaGo gana a Lee Sedol → "Go es solo reconocimiento de patrones"
2023: GPT-4 aprueba exámenes de abogacía → "Solo memoriza respuestas"
2024: O1 hace matemáticas olímpicas → "Pero no ha creado teorías como Einstein"
2030 (predicción): IA gana Nobel → "Pero no tiene consciencia"
Aunque por cierto Demis Hassabis y John Jumper ganaron el Nobel de Química 2024 gracias a AlphaFold, precisamente por resolver un problema que llevaba 50 años sin solución.
Uno de los errores da título al artículo, que es equiparar los asistentes domésticos (Alexa, Siri, Google home) con los modelos de lenguaje de frontera actuales, que de torpes ya tienen más bien poco; otra cosa es que aún no están desplegados para todo el público o en su mejor versión sin pagar.
DeepSeek-V3 ha demostrado capacidades de razonamiento verificables que superan el rendimiento humano experto en física, matemáticas olímpicas y diagnóstico médico; por no hablar de los norteamericanos que están en la cresta de la ola (Claude, Grok, Chatgpt y gemini)
Hay burbuja financiera e hiperfinanciación que dudo que logren los beneficios económicos suficientes para compensar la inversión, al menos a corto plazo. Pero eso no quita que los últimos modelos de lenguaje razonadores son… » ver todo el comentario
Lo que pasa es que la ciencia se protege mediante: 1) el método científico con la experimentación y los datos objetivos; y 2) el consenso de la comunidad científica mediante la revisión por pares
El problema es que 2) es como la democracia... Que puede ser degradada, manipulada o influenciada por agentes externos.
"Nueve meses antes del anuncio, en junio de 1997, Wakefield había presentado una solicitud de patente para una vacuna de sarampión de un solo antígeno que él mismo describía como “probablemente más segura”. Con esta vacuna y con kits de diagnóstico para la ficticia “enterocolitis autista” (introducida en aquel paper) esperaba hacer al menos 43 millones de dólares al año. El estudio de The Lancet era, básicamente, un folleto publicitario disfrazado de investigación académica para alejar a sus potenciales clientes de la competencia y posicionar su propio producto."