#10 "Un LLM funciona generando la siguiente palabra más probable, algo que puede hacer hasta el infinito. Si esa respuesta se corta, es porque hay un código aparte que lo decide".
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.
No es verdad, la condición de parada es la aparición de un token específico (<end▁of▁sentence>, <eos>...) en la salida del modelo. El resto de lo que has escrito es tan confuso o vago que ni siquiera se puede decir que sea conceptualmente incorrecto.