Siempre producirán resultados plausibles pero falsos, incluso con datos perfectos, debido a límites estadísticos y computacionales fundamentales. Los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. El modelo O1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, O3 y O4-mini, alucinaban el 33 % y el 48 % del tiempo. “A diferencia de la inteligencia humana, carece de la humildad necesaria para reconocer la incertidumbre”.
|
etiquetas: ia , openai , estudio , modelos , alucinaciones