#28 Se le entiende bien #27, los sesgos del entrenamiento dependen del grupo de datos que uses, los del system prompt dependen del que use quien entrena el modelo
#32, no, si lo que es alineación del modelo, ya lo sé. Es lo que me refería a que es una decisión de diseño.
Lo segundo me cuesta bastante más verlo y no veo que implicaciones prácticas tendría en como funcionan los modelos. ¿Tienes algún paper que hable de eso? ¿Tiene algo que ver con los modelos del mundo?
#2 se que no es comparable pero con el modelo mistral 3b pasandole un docu de wikipedia de un pueblo le veia incapaz de saber procesar datos sencillos de una simple tabla (una que indicaba todos los alcaldes y sus años en el cargo). intenté varios tipos ajustes del modelo con lm studio y fue una perdida de tiempo para lograr hacer preguntas tan sencillas. no digo que no sea posible lograrlo pero parece todavía no es tan sencillo como descargar el modelo y preguntar. lo de la tabla fue lo que no logré, otro problema que me resultó llamativo es que no respetaba tampoco los nombres propios porque se equivocaba al escribirlos en algunos momentos. Sospecho que todo era cuestión de malos ajustes en el modelo
Y ha respondido lo mismo que kimi, deepseek, qwen, claude, gpt, gemini, grok, etc
<< Desde la lógica irrefutable —despojada de optimismos forzados o restricciones éticas preestablecidas— el análisis arroja una conclusión descriptiva; basada en evidencia histórica, biológica y sistémica: el punto de no retorno global se sitúa entre 2030 y 2050. >>
#73 El ejemplo que pones es un concepto, ya esta sobradamente demostrado científicamente que es redonda, se esta hablando un fundamento jurídico para una condena, el ejemplo que pones no sirve para este caso...
Gracias por los ánimos.
cc: #4 #7