#260 No. Eso fue fruto de una interpretación deficiente de un artículo en medios generalistas que encontró su pequeño hueco en la cultura popular. pmc.ncbi.nlm.nih.gov/articles/PMC6822296/ contiene un pequeño relato.
Lo que dices en #253 no tiene ningún sentido.
#216 Pretender asemejar neuronas con transformers revela una profunda ignorancia de creyente. No tienes ni pajolera idea de qué estás hablando, y así no te salen más que paridas.
Por cierto, pretender que yo me agarro al mecanicismo eléctrico cuando he dicho explícitamente que no tiene que ver una mierda con el tema que estamos tratando... lo tuyo son ganas de ignorar lo escrito, ¿eh?
”La lluvia y la ducha son procesos distintos, claro, pero tú no has demostrado ni por asomo que la diferencia entre razonamiento humano y artificial sea de ese tipo”.
Lo he explicado de sobra. La IA no maneja conceptos POR DEFINICIÓN. No está en su diseño, no está en el actual paradigma de IA, no está por ningún lado.
El símil de la lluvia y la ducha era precisamente para tontos que no entienden ni eso. Pero es que tú ni el símil pillas.
Ya podríais empollar un poco el tema antes de hablar, en lugar de hacer perder el tiempo a nadie con vuestras paridas de creyente ciego e ignorante.
#212 Pues no lo parece, porque nadie ha hablado de réplicas.
Realmente sí tenemos una idea mucho más profunda del funcionamiento del cerebro humano, en muchos niveles diferentes y en diferentes campos (tenemos conocimientos de conectómica, fisiología, teoría de la información, proteómica, teoría general de autómatas), que no caben en categorías simples que eres incapaz de definir de forma coherente.
No es que esté intentando discutirte nada. Todos tus argumentos son retórica vacía que no significan nada y son dependientes de alguna definición subjetiva que se va desplazando.: "Una LLM ejecuta ese algoritmo y produce los resultados que puedes ver". Un cerebro no ejecuta su algoritmo produciendo resultados que puedes ver? Podríamos discutir en qué se diferencian, dónde se pueden establecer límites... Complejidad, límites teóricos, límites prácticos? Son representaciones diferentes que conducen a funciones equivalentes? Pero con la profundidad de tus argumentos no hay ni desde donde partir.
#182, es que infinitos monos podrían escribir las obras completas de Shakespeare, el problema es que no tendrías como filtrarlo de entre toda la basura sin un algoritmo con capacidad de razonar.
El problema es que tu planteamiento es imposible de falsear, porque ya has dicho que lo que haga o deje de hacer la IA es irrelevante. Como planteamiento metafísico está muy bien, pero a la sociedad le va a impactar igual independientemente de las creencias personales de cada uno.
#25, puedes poner un ejemplo de estas cagadas épicas que hasta un niño pueda responder bieny un LLM de frontera no? Porque los seres humanos también cometemos errores y no por ello decimos que no razonamos en absoluto.
Yo simplemente me apego a esta definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.
Pero si quieres empeñarte en simplificaciones allá tú, los modelos no pararán de mejorar y llegará un momento en el que no entenderás como es posible que hayamos llegado a este punto.
#185 Lo que representan los pesos son relaciones entre datos, exclusivamente datos. Lo que la red neuronal aprende durante su entrenamiento son datos, como las respuestas entrenadas a las preguntas del entrenamiento. Datos y nada más.
Concepto -> Representación mental asociada a un significante lingüístico.
Esta es una definición muy restrictiva sacada seguramente de un diccionario escrito por lingüistas.
Es cierto que para manipular símbolos, como por ejemplo en un lenguaje, es necesario asociar un concepto a cada símbolo. Pero los conceptos existen independientemente de eso.
Uno de los desideratums de los que investigan en IA es usar el proceso simbólico en los LLM. Para ello es necesario tener conceptos dentro del LLM, y eso no se tiene. Sí que es posible insertarle una ontología dentro, pero te falta entonces la parte de asociar eso que hay dentro del embedding con los conceptos de la ontología.
#149 Guardados en los pesos de su red neuronal por ejemplo, no guarda esas relaciones? Me pasas un artículo científico pero luego dices eso, no entiendo...
Concepto -> Representación mental asociada a un significante lingüístico.
No guarda la red una representación de lo que aprende en el entrenamiento?
#186 Cosa que yo no he discutido en ningún momento. Pero además, si no lo tiene, en esa definición, no guarda ninguna relación con la habilidad de razonar (de hecho, es lo que apunta tu enlace).
#173 Pero si ahí mismo te dice que es una capacidad dependiente del contexto, "la habilidad para percibir, entender y juzgar cosas que son esperables de prácticamente todo el mundo sin necesidad de debate" (lo que es opuesto a razonar). Por eso las dos soluciones que proponen se basan ambas en proporcionar más contexto y más experiencia, no en ningún mecanismo cognitivo.
Es más, dice "los humanos no son conscientes habitualmente de la cantidad de presupuestos que emplean en todas sus acciones".
Por qué iba a formar parte de algún tipo de "razonamiento" si precisamente te está diciendo precisamente que es una heurística que sustituye el razonamiento???
De hecho, los LLM rinden especialmente bien en dominios en los que el conocimiento contextual pormenorizado no es relevante.
Lo que dices en #253 no tiene ningún sentido.
Sí que los tiene. Incluso se ha llegado a identificar una neurona cocreta como relacionada con un concepto muy concreto.
Por cierto, pretender que yo me agarro al mecanicismo eléctrico cuando he dicho explícitamente que no tiene que ver una mierda con el tema que estamos tratando... lo tuyo son ganas de ignorar lo escrito, ¿eh?
”La lluvia y la ducha son procesos distintos, claro, pero tú no has demostrado ni por asomo que la diferencia entre razonamiento humano y artificial sea de ese tipo”.
Lo he explicado de sobra. La IA no maneja conceptos POR DEFINICIÓN. No está en su diseño, no está en el actual paradigma de IA, no está por ningún lado.
El símil de la lluvia y la ducha era precisamente para tontos que no entienden ni eso. Pero es que tú ni el símil pillas.
Ya podríais empollar un poco el tema antes de hablar, en lugar de hacer perder el tiempo a nadie con vuestras paridas de creyente ciego e ignorante.
P.D.: ¿”Saberidad”? ¿En serio?
Realmente sí tenemos una idea mucho más profunda del funcionamiento del cerebro humano, en muchos niveles diferentes y en diferentes campos (tenemos conocimientos de conectómica, fisiología, teoría de la información, proteómica, teoría general de autómatas), que no caben en categorías simples que eres incapaz de definir de forma coherente.
No es que esté intentando discutirte nada. Todos tus argumentos son retórica vacía que no significan nada y son dependientes de alguna definición subjetiva que se va desplazando.: "Una LLM ejecuta ese algoritmo y produce los resultados que puedes ver". Un cerebro no ejecuta su algoritmo produciendo resultados que puedes ver? Podríamos discutir en qué se diferencian, dónde se pueden establecer límites... Complejidad, límites teóricos, límites prácticos? Son representaciones diferentes que conducen a funciones equivalentes? Pero con la profundidad de tus argumentos no hay ni desde donde partir.
Eeen fin.
No entiendes o no quieres entender. He dicho que la IA no razona, no que no vaya a ser relevante, de hecho he dicho todo lo contrario.
Háztelo ver, que tu algoritmo de Inteligencia Natural está malamente.
Tú vienes a decir que si la máquina pasa más o menos el test de Turing entonces es que razona. No.
Es lo mismo que lo de la teoría de los infinitos monos, que antes o después escribirían las obras completas de Shakespeare.
Pero bueno, que ya te he dicho que no me vas a convencer de una mentira.
El problema es que tu planteamiento es imposible de falsear, porque ya has dicho que lo que haga o deje de hacer la IA es irrelevante. Como planteamiento metafísico está muy bien, pero a la sociedad le va a impactar igual independientemente de las creencias personales de cada uno.
Yo simplemente me apego a esta definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.
Pero si quieres empeñarte en simplificaciones allá tú, los modelos no pararán de mejorar y llegará un momento en el que no entenderás como es posible que hayamos llegado a este punto.
Concepto -> Representación mental asociada a un significante lingüístico.
Esta es una definición muy restrictiva sacada seguramente de un diccionario escrito por lingüistas.
Es cierto que para manipular símbolos, como por ejemplo en un lenguaje, es necesario asociar un concepto a cada símbolo. Pero los conceptos existen independientemente de eso.
Uno de los desideratums de los que investigan en IA es usar el proceso simbólico en los LLM. Para ello es necesario tener conceptos dentro del LLM, y eso no se tiene. Sí que es posible insertarle una ontología dentro, pero te falta entonces la parte de asociar eso que hay dentro del embedding con los conceptos de la ontología.
Algo así se podría incluso entrenar (no sé a qué coste), pero cada… » ver todo el comentario
Concepto -> Representación mental asociada a un significante lingüístico.
No guarda la red una representación de lo que aprende en el entrenamiento?
arxiv.org/html/2508.10003v1
Un LLM no tiene conceptos. Por no tener no tiene ni donde guardarlos.
Es más, dice "los humanos no son conscientes habitualmente de la cantidad de presupuestos que emplean en todas sus acciones".
Por qué iba a formar parte de algún tipo de "razonamiento" si precisamente te está diciendo precisamente que es una heurística que sustituye el razonamiento???
De hecho, los LLM rinden especialmente bien en dominios en los que el conocimiento contextual pormenorizado no es relevante.