Siempre producirán resultados plausibles pero falsos, incluso con datos perfectos, debido a límites estadísticos y computacionales fundamentales. Los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. El modelo O1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, O3 y O4-mini, alucinaban el 33 % y el 48 % del tiempo. “A diferencia de la inteligencia humana, carece de la humildad necesaria para reconocer la incertidumbre”.
|
etiquetas: ia , openai , estudio , modelos , alucinaciones
Quién quiere una herramienta informática que te da resultados, ya no sólo de los que no te puedes fiar, sino además (y lo más importante), a la que no le puedes "rendir cuentas", siendo tú el único responsable por dar por correctos sus análisis, creados por estadística, y… » ver todo el comentario
GenAI es cojonuda para algunos casos de uso, pero cuando escucho cosas como automatizar procesos basados en esta tecnología, me da escalofríos. Cualquiera que entienda un mínimo como funciona sabe que nunca será precisa por fundamentos
Esto como la conducción autónoma o los aviones modernos, el riesgo cero no existe, pero hay que ver si compensa la relación coste-beneficio y si las alucinaciones se pueden mitigar hasta el punto de que se equivoquen menos que los humanos. Todo esto sin contar el tiempo que pueda tardar hasta que aparezca una mejora en la arquitectura que quizás las pueda eliminar del todo,… » ver todo el comentario
Si quieres algo cercando al 100% de fiabilidad sale mas barato un experto humano
Eso y los que creen qie la IA piensa y razona.
Anda, si #_2 me tiene ignorado. Joer, qué bien
Hace poco me jodió la Gemini de Google. Pregunté por una medidas sobre un tema, di por bueno lo que me dijo, porque iba con prisas, y resulta que estaba equivocado y me tocó hacer el trabajo dos veces. Ya me fue bien como advertencia. Nunca más.
Ya lo he contado alguna vez, en cierta ocasión no hace tanto busqué en google cómo hacer en el trabajo algo que no encontraba por ninguna parte y me dijo Gemini que "sí, hombre sí,… » ver todo el comentario
Y esto nos va a traer consecuencias catastróficas porque en un tiempo ya no tendremos ni idea de lo que es real y de lo que no lo es. Nadie va a tener ni idea de ello.
#4 El problema es que ya nos estamos informando con IA y eso aunque no usemos ninguna IA.
Empieza la cuenta atrás de la burbuja.
Pero hay gente que se informa con la IA.