A muchas personas ya les ha pasado: le preguntan algo a un sistema de inteligencia artificial, como ChatGPT u otros similares, y reciben una respuesta larga, convincente… pero falsa. Este fenómeno tiene un nombre: alucinaciones de la IA. No hablamos de visiones ni sueños, sino de momentos en los que la máquina se “inventa” información que parece cierta, pero no lo es. Un estudio reciente de OpenAI explica que esto no es un fallo técnico puntual, sino una consecuencia de cómo están diseñados estos sistemas.
|
etiquetas: alucinaciones , intelingencia artificial , estudio , openai , chatgpt , ia