Sólo por si acaso. No existe el racismo inverso igual que no existe la discriminación positiva. La discriminación es siempre discriminación, con su priviligiado y su discriminado, y la discriminación por raza es siempre racismo.
#3 No hay otros medios de comunicación. Están todos controlados por los mismos, los grandes, los medianos y los pequeños. Hay incluso una profusión de medios poequeños cuyo objetivo es hundir en la irrelevancia a un posible medido pequeño que se creara.
#47 La ciencia no funciona así. No hay modelo probabilistico que valga cuando Dirac dedujo la existencia de la antimateria, nunca observada. Ni cuando Einstein dedujo la existencia de las ondas gravitatorias, nunca observadas.
#3 Los LLM funcionan por probabilidades, pero eso es ser estadístico. Estocástico es otra cosa.
Lo de la semilla no lo he visto nunca. Cierto que un generador pseudoaleatorio debe hacer algo así, pero eso es un tema aparte.
Eso del "espacio vectorial" no es más que una interpretación muy chula (pero interpretación) de los números que cuelgan de cada token. No forman un grafo ni de puta coña. (a veces lo dibujan de forma que lo parece, pero son diferencias (restas) entre vectores)
Los LLM alucinan principalmente porque les falta montones de información relevante, que un humano sí que puede obtener.
El Dunning-Kruger y la atrofia cognitiva parece que es algo real, pero no es el principal efecto. Lo relevante, y hay ejemplos de varios usuarios en meneame, es el sesgo cognitivo de asociar una "consciencia" de algún tipo a algo que nos está hablando y con el que se puede conversar. El efecto es muy fuerte. Son esos que afirman que "sin duda es inteligente".
Nada de que te te diga Grok, o el modelo que sea, tiene ni la más mínima fiabilidad. Nada puede sustituir al entender algo.
#35 Creo que te refieres al AGI. A que una IA sea capaz de pensar. Si quieres te contesto a eso, pero es más complicado que reirse un rato de Turing.
El test de Turing que conocemos es una adaptación del original. El original fue un whim de ese sarasa donde el ordenador chateaba (como en un teletipo) con un humano y debía adivinar si era hombre o mujer. Lo que, claro, puede ser complicadillo en ciertos casos, de ahí lo de "ser inteligente". En fin, era otra época donde nadie necesitaba 640MB de RAM.
En UK no se indulta como en el circo que es España. Si un juez te manda a la cárcel, te comes la cárcel. Sin embargo, por una sola vez, se emitió un indulto para Turing. Tarde, sí, pero fue algo muy excepcional.
#9 El entrenamiento consiste en una serie de respuestas memorizadas.
Específicamente, se le pregunta algo a la red neuronal y se califica esa repuesta entre buena y mala. El modelo adapta sus parámetros internos en base a esa calificación (backpropagation). A base de repetir y repetir, el modelo acaba "aprendiendo" la respuesta que al calificador le gusta.
Ahí hay, desde luego, mucho espacio para meter sesgos.
Sin embargooooooo, mucho de lo que se le pregunta a un LLM no pasa por esas respuestas aprendidas, sino que es simplemente regurgitar textos que se ha tragado (internet entera) en base a probabilidades, e interpolarlos (que es en lo que las redes neuronales brillan). Ahí no hay espacio para meterle sesgos si no es restringiendo y seleccionando esas entradas.
Esto no se hace. Cada modelo existente está en la carrera de superar a sus rivales, y no tienen otra arma que meter más y más datos.
#28 Yo considero que no. Es nuevo conocimiento (por la definición de nuevo) pero no contiene nada básico que sea nuevo. Si resuelve un problema matemático (hay mucho trilerismo ahí, pero eso aparte, asumamos que realmente lo ha hecho) es gracias a que los métodos que llevan a ese resultado ya estaban establecidos y se le dieron en su entrenamiento. Lo que ha hecho es usarlos y llegar a un resultado que nos gusta (no lo llamamos alucinación como cuando no nos gusta).
Es decir, que el resultado no es más que una consecuencia de sus datos de entrada. Esto los ordenadores sí que lo hacen. Conceptualmente es equivalente sumar dos números enteros. No hay que confundir la complejidad con el concepto.
Para nada niego la utilidad; obviamente. Pero no es como si hubiera inventado algo nuevo.
El día que una IA deduzca un nuevo método de integración, por ejemplo, eso será digno de verse. Como suceda eso, ibas a ver el ruido.