edición general
fzman

fzman

En menéame desde septiembre de 2025

7,23 Karma
14K Ranking
0 Enviadas
0 Publicadas
1.163 Comentarios
0 Notas

Deus Ex Machina [56]

  1. #9 El entrenamiento consiste en una serie de respuestas memorizadas.

    Específicamente, se le pregunta algo a la red neuronal y se califica esa repuesta entre buena y mala. El modelo adapta sus parámetros internos en base a esa calificación (backpropagation). A base de repetir y repetir, el modelo acaba "aprendiendo" la respuesta que al calificador le gusta.

    Ahí hay, desde luego, mucho espacio para meter sesgos.

    Sin embargooooooo, mucho de lo que se le pregunta a un LLM no pasa por esas respuestas aprendidas, sino que es simplemente regurgitar textos que se ha tragado (internet entera) en base a probabilidades, e interpolarlos (que es en lo que las redes neuronales brillan). Ahí no hay espacio para meterle sesgos si no es restringiendo y seleccionando esas entradas.

    Esto no se hace. Cada modelo existente está en la carrera de superar a sus rivales, y no tienen otra arma que meter más y más datos.
  1. #28 Yo considero que no. Es nuevo conocimiento (por la definición de nuevo) pero no contiene nada básico que sea nuevo. Si resuelve un problema matemático (hay mucho trilerismo ahí, pero eso aparte, asumamos que realmente lo ha hecho) es gracias a que los métodos que llevan a ese resultado ya estaban establecidos y se le dieron en su entrenamiento. Lo que ha hecho es usarlos y llegar a un resultado que nos gusta (no lo llamamos alucinación como cuando no nos gusta).

    Es decir, que el resultado no es más que una consecuencia de sus datos de entrada. Esto los ordenadores sí que lo hacen. Conceptualmente es equivalente sumar dos números enteros. No hay que confundir la complejidad con el concepto.

    Para nada niego la utilidad; obviamente. Pero no es como si hubiera inventado algo nuevo.

    El día que una IA deduzca un nuevo método de integración, por ejemplo, eso será digno de verse. Como suceda eso, ibas a ver el ruido.
  1. #31 Ahora me ha dado por usar Gemini. Alucina ni más ni menos que los otros modelos. Las alucinaciones son una consecuencia inevitable de la forma de funcionar de un LLM. Hay muchas cosas que un LLM no puede hacer y un humano sí que hace.

    Pero sí, aluciona constantemente. Es sistemático.
  1. #29 Poco conoces a @macarty tú. ¿Has mirado nunca orangeterapy?
  1. #23 Son conceptos distintos. Es verdad que un modelo con sus parámetros cuantizados (de menos precisión) va a dar un resultado distinto antes de cuantizarse y después de cuantizarse, pero esa diferencia los convierte en modelos distintos.

    Un mismo modelo es determinista, es decir que siempre va a dar el mismo resultado si obviamos la aleatorización que se le añade a propósito (cuando no hay aleatorización se dice que se usa temperatura cero).

    Tanto da el proceso (entrenamiento) que se use para llegar a configurar un modelo. Lo mismo para cualquier tipo de post-proceso. Al final tienes un modelo concreto con sus parámetros, que son los que son y no otros. Eso es un resultado que es fijo. Es decir que los errores que se produzcan durante el entrenamiento no tienen nada que ver con que el modelo sea o no determinista.

    Otra cosa muy distinta (que no me consta en absoluto) sería que se introdujera aleatoriedad en el prompt del sistema (que va siempre junto al promp del usuario, dentro del contexto). Pero, repito, nunca he oido hablar de nada de eso.
  1. #8 No he podido leer todo eso. Mucha letra, ninguna información.

    No es sólo la tendencia moderna a no poder leer textos largos. Es que mientras vas leyendo líneas y líneas y líneas es necesario que tanto texto contenga algo, y ahí no hay nada.
  1. #19 Un LLM no puede crear nueva ciencia. Esto es por "definición". O lo mismo dicho de otro modo, porque de la manera que funciona no puede sino devolver la información que le ha entrado antes. Es un ordenador y funciona como cualquier ordenador, sin magia.

Trump tuvo uno de sus peores episodios de salud mental hasta la fecha anoche, publicando más de 55 veces en 3 horas [ENG] [57]

  1. Yo no sé qué pensará Obama, pero si a mi me califican de "fuerza demoniaca", no iba a presumir yo poco.

Incluso si existiera algún dios... [2]

  1. supongamos por un momento que en la causa primera hubiera una mente personal, no explicada en sí misma por "lo mecánico".

    La suposición es innecesaria.

Varios ciudadanos reducen a un ladrón al intentar robar dos motos a sus dueños en un semáforo de Alicante [139]

  1. #93 Pues la lista que se ha dado ¿no?
  1. #90 Pues se ha dejado a Liechtenstein.
  1. #82 y chinos, coreanos, vietnamitas, rusos, japoneses, thailandeses, ...

China ve al EE. UU. de Trump como un imperio en decadencia [39]

  1. #1 Yo veo la caida muchísimo más rápida de lo que dices.

Ni su propia IA lo respaldó: Grok desmiente a Elon Musk sobre Hitler y el socialismo [120]

  1. #110 Pero si no has dicho más que estupideces usando palabras que te suenan. Déjalo ya. No puedes ser siempre superior a todo el mundo.

Los niños iraquies nacidos cerca de una base militar estadounidense muestran tasas elevadas de "deformidades congenitas graves" [16]

  1. #5 Ya, y donde se fabrique eso podría haber contaminación. Pero ¿en una base militar? No sé verlo.

El mundo está intentando desconectarse de la tecnología de EEUU. Hay un problema fundamental: estamos demasiado cómodos con ella [80]

  1. #45 Porque además es más barato. Yo no entiendo lo de irse a la nube. Si es carísimo.

Ni su propia IA lo respaldó: Grok desmiente a Elon Musk sobre Hitler y el socialismo [120]

  1. #108 Hartooooo. Me teneis harto los ignorantes. Te vas a presumir de superiridad a otro.

Los niños iraquies nacidos cerca de una base militar estadounidense muestran tasas elevadas de "deformidades congenitas graves" [16]

  1. ¿Torio? ¿Para qué concretamente se usa el torio? Ni se me ocurre.

Testamento divino [11]

  1. #1 Me ha gustado la firma.

Ni su propia IA lo respaldó: Grok desmiente a Elon Musk sobre Hitler y el socialismo [120]

  1. #106 Vaya con el engreimiento, y ni siquiera sabes de lo que hablas.

¿Qué pasará cuando nos demos cuenta de lo mal que estamos en EEUU? [ENG] [43]

  1. #19 Muchos MAGA ni siquiera saben leer.
  1. #2 Todo fascismo necesita un enemigo. Hitler se inventó lo de los judios y al final él mismo se lo creyó

Ni su propia IA lo respaldó: Grok desmiente a Elon Musk sobre Hitler y el socialismo [120]

  1. #104 El que tú "creas" que hay forma de asignar un nivel de credibilidad es impresionante de por sí.

    Mucha gente comenta y casi nadie se ha molestado en tragarse un video sobre cómo funcionan esos trastos.

Trabajadoras sexuales en consulta: “En vez de atenderte, te echan un sermón” [34]

  1. "mas del 80% de las mujeres son victimas de trata o explotación"

    Si ya empiezas por creerte gilipolleces, pues adivina cómo va a ir la cosa.
  1. #25 Más fácil no se puede poner. Te pones como masajista y ya está.

menéame