cultura y tecnología
34 meneos
90 clics
OpenAI admite que las alucinaciones de IA son matemáticamente inevitables, no solo fallas de ingeniería [EN]

OpenAI admite que las alucinaciones de IA son matemáticamente inevitables, no solo fallas de ingeniería [EN]

Siempre producirán resultados plausibles pero falsos, incluso con datos perfectos, debido a límites estadísticos y computacionales fundamentales. Los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. El modelo O1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, O3 y O4-mini, alucinaban el 33 % y el 48 % del tiempo. “A diferencia de la inteligencia humana, carece de la humildad necesaria para reconocer la incertidumbre”.

| etiquetas: ia , openai , estudio , modelos , alucinaciones

menéame