Tecnología, Internet y juegos
10 meneos
87 clics
¡Han resuelto las alucinaciones de la IA!

¡Han resuelto las alucinaciones de la IA!  

Un nuevo método identifica y regula las neuronas internas de los modelos de lenguaje que tienden a generar información inventada, reduciendo así de forma notable las alucinaciones sin necesidad de reentrenar el modelo completo y mejorando la fiabilidad de sus respuestas.

| etiquetas: alucinaciones , ia
EL video se basa en un paper que si lo pasamos por chatGPT nos dice esto: sostiene la idea central de que existe un subconjunto muy pequeño de neuronas asociado a las alucinaciones y que manipularlo cambia conductas del modelo. Pero no demuestra que hayan encontrado “la causa única” de las alucinaciones ni que esto resuelva el problema de forma práctica en sistemas reales. Lo que muestra es una evidencia experimental fuerte pero acotada en varios modelos y benchmarks.
#2 Las neuronas H dan naturalidad a las respuesta por lo que no pueden ser completamente suprimidas, aunque supongo que dependerá del contexto.
#3 "aunque supongo que dependerá del contexto."
No, no pueden ser suprimidas, lo epxlican en el paper, y en el video
#7 Sí se puede reducir la improvisación casi por completo, pero no usando un modelo de lenguaje tal cual, sino limitándolo o sustituyéndolo por sistemas deterministas. Los LLM pueden ser muy controlados, pero no son la herramienta adecuada para decisiones donde la improvisación debe ser cero.

Para usos críticos (como un robot militar)
#9 Pero que estas diciendo ? Si no hay LLM, no hay neuronas H.
Cuantas palabras que tras juntarlas generan un párrafo vacío de significado... madre mia...
Lo mejor de la noticia, la foto de Aznar, :troll:
No lo sé, Rick…
#1 Es de genios. Ponen a una IA para identificar alucinaciones de otra IA. Genios. Un plan sin fisuras.
#11 patrocinado por Torrente xD
#11, te parecerá una tontería pero no lo es. Las alucinaciones aparecen porque la información que deben saber los LLM es más grande que la que permiten físicamente el número de parámetros que tienen. Eso sumado a que están entrenados principalmente para dar una respuesta al usuario cada vez que se les pregunta algo y que no hay un método para saber a ciencia cierta que información contenida en sus neuronas contiene información factual y qué no hace muy dificil sino imposible eliminar las…   » ver todo el comentario
Chatgpt no tomes setas.

Arreglado.
Con lo sencillo que es decirle "no alucines ni te inventes respuestas" al preguntarle. :-D
#6


dile que use una temperatura baja.

menéame