edición general
DrLivingsToon

DrLivingsToon

En menéame desde mayo de 2011

4,35 Karma
767K Ranking
1 Enviadas
0 Publicadas
171 Comentarios
0 Notas
  1. #244 Si aportas algo inteligente sobre redes neuronales podemos discutirlo. Si no, aquí te quedas con tus payasadas.
  2. #238 No hay nada que entender en tus juicios sobre los demás, que es aparentemente lo único de lo que sabes hablar.
  3. #260 No. Eso fue fruto de una interpretación deficiente de un artículo en medios generalistas que encontró su pequeño hueco en la cultura popular. pmc.ncbi.nlm.nih.gov/articles/PMC6822296/ contiene un pequeño relato.
    Lo que dices en #253 no tiene ningún sentido.
  4. #240 tu cerebro tampoco tiene cajones mágicos donde ponga “concepto”

    Sí que los tiene. Incluso se ha llegado a identificar una neurona cocreta como relacionada con un concepto muy concreto.
  5. #216 Pretender asemejar neuronas con transformers revela una profunda ignorancia de creyente. No tienes ni pajolera idea de qué estás hablando, y así no te salen más que paridas.

    Por cierto, pretender que yo me agarro al mecanicismo eléctrico cuando he dicho explícitamente que no tiene que ver una mierda con el tema que estamos tratando... lo tuyo son ganas de ignorar lo escrito, ¿eh?

    La lluvia y la ducha son procesos distintos, claro, pero tú no has demostrado ni por asomo que la diferencia entre razonamiento humano y artificial sea de ese tipo”.

    Lo he explicado de sobra. La IA no maneja conceptos POR DEFINICIÓN. No está en su diseño, no está en el actual paradigma de IA, no está por ningún lado.

    El símil de la lluvia y la ducha era precisamente para tontos que no entienden ni eso. Pero es que tú ni el símil pillas.

    Ya podríais empollar un poco el tema antes de hablar, en lugar de hacer perder el tiempo a nadie con vuestras paridas de creyente ciego e ignorante.

    P.D.: ¿”Saberidad”? ¿En serio? xD
  6. #212 Pues no lo parece, porque nadie ha hablado de réplicas.
    Realmente sí tenemos una idea mucho más profunda del funcionamiento del cerebro humano, en muchos niveles diferentes y en diferentes campos (tenemos conocimientos de conectómica, fisiología, teoría de la información, proteómica, teoría general de autómatas), que no caben en categorías simples que eres incapaz de definir de forma coherente.
    No es que esté intentando discutirte nada. Todos tus argumentos son retórica vacía que no significan nada y son dependientes de alguna definición subjetiva que se va desplazando.: "Una LLM ejecuta ese algoritmo y produce los resultados que puedes ver". Un cerebro no ejecuta su algoritmo produciendo resultados que puedes ver? Podríamos discutir en qué se diferencian, dónde se pueden establecer límites... Complejidad, límites teóricos, límites prácticos? Son representaciones diferentes que conducen a funciones equivalentes? Pero con la profundidad de tus argumentos no hay ni desde donde partir.
  7. #201 Que me suelte el brazo, señora.
  8. #210, ante la falta de argumentos. :-D
  9. #183 ¿En serio un simple algoritmo de búsqueda de cadenas de caracteres es IA?

    Eeen fin.

    No entiendes o no quieres entender. He dicho que la IA no razona, no que no vaya a ser relevante, de hecho he dicho todo lo contrario.

    Háztelo ver, que tu algoritmo de Inteligencia Natural está malamente.
  10. #147 No me vas a convencer de una mentira.

    Tú vienes a decir que si la máquina pasa más o menos el test de Turing entonces es que razona. No.

    Es lo mismo que lo de la teoría de los infinitos monos, que antes o después escribirían las obras completas de Shakespeare.

    Pero bueno, que ya te he dicho que no me vas a convencer de una mentira.
  11. #182, hablas de cagadas épicas y eres incapaz de poner un solo ejemplo. No sé quién miente aquí?
  12. #182, es que infinitos monos podrían escribir las obras completas de Shakespeare, el problema es que no tendrías como filtrarlo de entre toda la basura sin un algoritmo con capacidad de razonar.

    El problema es que tu planteamiento es imposible de falsear, porque ya has dicho que lo que haga o deje de hacer la IA es irrelevante. Como planteamiento metafísico está muy bien, pero a la sociedad le va a impactar igual independientemente de las creencias personales de cada uno.
  13. #25, puedes poner un ejemplo de estas cagadas épicas que hasta un niño pueda responder bieny un LLM de frontera no? Porque los seres humanos también cometemos errores y no por ello decimos que no razonamos en absoluto.

    Yo simplemente me apego a esta definición de razonar que hace la RAE: Ordenar y relacionar ideas para llegar a una conclusión.

    Pero si quieres empeñarte en simplificaciones allá tú, los modelos no pararán de mejorar y llegará un momento en el que no entenderás como es posible que hayamos llegado a este punto.
  14. #185 Lo que representan los pesos son relaciones entre datos, exclusivamente datos. Lo que la red neuronal aprende durante su entrenamiento son datos, como las respuestas entrenadas a las preguntas del entrenamiento. Datos y nada más.

    Concepto -> Representación mental asociada a un significante lingüístico.

    Esta es una definición muy restrictiva sacada seguramente de un diccionario escrito por lingüistas.

    Es cierto que para manipular símbolos, como por ejemplo en un lenguaje, es necesario asociar un concepto a cada símbolo. Pero los conceptos existen independientemente de eso.

    Uno de los desideratums de los que investigan en IA es usar el proceso simbólico en los LLM. Para ello es necesario tener conceptos dentro del LLM, y eso no se tiene. Sí que es posible insertarle una ontología dentro, pero te falta entonces la parte de asociar eso que hay dentro del embedding con los conceptos de la ontología.

    Algo así se podría incluso entrenar (no sé a qué coste), pero cada…   » ver todo el comentario
  15. #149 Guardados en los pesos de su red neuronal por ejemplo, no guarda esas relaciones? Me pasas un artículo científico pero luego dices eso, no entiendo...
    Concepto -> Representación mental asociada a un significante lingüístico.
    No guarda la red una representación de lo que aprende en el entrenamiento?
  16. #145 Los embeddings no contienen relaciones semánticas.

    arxiv.org/html/2508.10003v1

    Un LLM no tiene conceptos. Por no tener no tiene ni donde guardarlos.
  17. #56 con embeddings de miles de dimensiones y buscando relaciones semánticas que ni podemos explicar dices que no entiende conceptos.
  18. #194 No puedo negarlo. Demasiadas conversaciones cruzadas. Disculpa si te he mezclado con otros.
  19. #186 Cosa que yo no he discutido en ningún momento. Pero además, si no lo tiene, en esa definición, no guarda ninguna relación con la habilidad de razonar (de hecho, es lo que apunta tu enlace).
  20. #173 Pero si ahí mismo te dice que es una capacidad dependiente del contexto, "la habilidad para percibir, entender y juzgar cosas que son esperables de prácticamente todo el mundo sin necesidad de debate" (lo que es opuesto a razonar). Por eso las dos soluciones que proponen se basan ambas en proporcionar más contexto y más experiencia, no en ningún mecanismo cognitivo.
    Es más, dice "los humanos no son conscientes habitualmente de la cantidad de presupuestos que emplean en todas sus acciones".
    Por qué iba a formar parte de algún tipo de "razonamiento" si precisamente te está diciendo precisamente que es una heurística que sustituye el razonamiento???
    De hecho, los LLM rinden especialmente bien en dominios en los que el conocimiento contextual pormenorizado no es relevante.
  21. #165 No te he pedido varias. Te he pedido una que sea consistente con tus afirmaciones, pero es un giro irónico que tengas que delegarlo en una IA.
  22. #148 Sigues sin dar una definición e introduciendo términos que describen experiencias subjetivas, no realidades ("intuición").
  23. #144 Antes de introducir nuevos términos que no sabes definir, explica qué entiendes por "sentido común".
  24. #143 pues un algoritmo que no tiene conciencia de si mismo no puede adquirir sentido comun.
  25. #142 En la fase de entrenamiento aprende respuestas "correctas" a determinadas preguntas. Eso es memorización, no conocimiento.
« anterior1234516

menéame