Tecnología, Internet y juegos
19 meneos
50 clics
OpenAI admite que las alucinaciones de IA son matemáticamente inevitables, no solo fallas de ingeniería [EN]

OpenAI admite que las alucinaciones de IA son matemáticamente inevitables, no solo fallas de ingeniería [EN]

Siempre producirán resultados plausibles pero falsos, incluso con datos perfectos, debido a límites estadísticos y computacionales fundamentales. Los modelos de razonamiento avanzados de OpenAI alucinaban con mayor frecuencia que los sistemas más simples. El modelo O1 de la compañía alucinaba el 16 % del tiempo al resumir información pública, mientras que los modelos más recientes, O3 y O4-mini, alucinaban el 33 % y el 48 % del tiempo. “A diferencia de la inteligencia humana, carece de la humildad necesaria para reconocer la incertidumbre”.

| etiquetas: ia , openai , estudio , modelos , alucinaciones
16 3 0 K 246
16 3 0 K 246
Vamos, que esas historias para no dormir los que difunden alucinaciones típicas de IA del tipo que el 99 % de los trabajos "white collar) van a desaparecer del 2030, son cuentos asustaviejas basados en nada.

Quién quiere una herramienta informática que te da resultados, ya no sólo de los que no te puedes fiar, sino además (y lo más importante), a la que no le puedes "rendir cuentas", siendo tú el único responsable por dar por correctos sus análisis, creados por estadística, y…   » ver todo el comentario
#3 GenAI falla, las IAs "tradicionales" dan generalmente un intervalo de confianza, y puedes ajustar sus predicciones basado en el intervalo con el caso de uso (no vas a usar el mismo intervalo para un edificio de oficinas que para una frontera).

GenAI es cojonuda para algunos casos de uso, pero cuando escucho cosas como automatizar procesos basados en esta tecnología, me da escalofríos. Cualquiera que entienda un mínimo como funciona sabe que nunca será precisa por fundamentos
#1, #2, #3, #5, #7, los humanos también producen resultados plausibles pero falsos y hay gente que se informa con ellos.

Esto como la conducción autónoma o los aviones modernos, el riesgo cero no existe, pero hay que ver si compensa la relación coste-beneficio y si las alucinaciones se pueden mitigar hasta el punto de que se equivoquen menos que los humanos. Todo esto sin contar el tiempo que pueda tardar hasta que aparezca una mejora en la arquitectura que quizás las pueda eliminar del todo,…   » ver todo el comentario
#3 Asi a brocha gorda, son procesos estadisticos.
Si quieres algo cercando al 100% de fiabilidad sale mas barato un experto humano
#3 Es que son simples herramientas como un excel, un word, una calculadora o un martillo
#8, el Apolo 13 es un medio de transporte igual que un carromato.
El problema no es "informarse con la IA", el problema es admitir lo qie dice como palabra divina sin ningún tipo de crítica ni verificación.

Eso y los que creen qie la IA piensa y razona.

Anda, si #_2 me tiene ignorado. Joer, qué bien :-)
#4 A ver, es que si hay que preguntar a la IA y después buscar a ver si se ha equivocado, para eso ya lo busco yo y me ahorro el primer paso.

Hace poco me jodió la Gemini de Google. Pregunté por una medidas sobre un tema, di por bueno lo que me dijo, porque iba con prisas, y resulta que estaba equivocado y me tocó hacer el trabajo dos veces. Ya me fue bien como advertencia. Nunca más.
#9 Yo, como tal, no puedo decir que sea usuario de IA. Lo más que uso es la de google pero sólo porque "viene integrada" cuando haces una búsqueda. En mi trabajo también se está empezando a usar un poco o, más bien, a verse en qué se puede usar (resúmenes, tareas repetitivas) pero apenas la he tocado.

Ya lo he contado alguna vez, en cierta ocasión no hace tanto busqué en google cómo hacer en el trabajo algo que no encontraba por ninguna parte y me dijo Gemini que "sí, hombre sí,…   » ver todo el comentario
El problema es que mucha gente se informa en internet en contenidos generados por IA. Igual tu mismo te estás informando con la IA y no sabes que es IA- Y dentro de poco tendremos a la IA entrenandose con contenidos generados por IA, muchos de ellos alucinaciones.

Y esto nos va a traer consecuencias catastróficas porque en un tiempo ya no tendremos ni idea de lo que es real y de lo que no lo es. Nadie va a tener ni idea de ello.

#4 El problema es que ya nos estamos informando con IA y eso aunque no usemos ninguna IA.
No hay más preguntas, Señoría.

Empieza la cuenta atrás de la burbuja.
#1 En realidad sigue siendo una herramienta útil si la atas en corto y válidas los resultados, lo que no vas a conseguir jamás es reemplazar a tus empleados.
"Siempre producirán resultados plausibles pero falsos..."

Pero hay gente que se informa con la IA.
Introducción a Chat GPT:  media
es que la realidad no es estadisticamente predecible. y encima si la entrenas con verdades, medias verdades, mentiras e informacion que cambia con el tiempo... pero vamos, que eso estaba claro desde el principio menos para los periodistas y quien se ha tomado lo de "inteligencia" literalmente.

menéame