Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Me ha resultado muy esclarecedora la respuesta de Gemini sobre una cuestión que le hice: '¿Por qué las IAs tienden a dar cualquier respuesta, incluso incorrecta, en lugar de admitir su desconocimiento?'
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
@imparsifal
Precisamente por eso me di de baja del “consejo consultivo”: porque sus decisiones no son vinculantes, los miembros no tienen capacidad real de plantear las preguntas y su papel es, en la práctica, irrelevante.
Tal y como está planteado, parece más un mecanismo para legitimar decisiones ya tomadas que un órgano de participación real, además de una fuente de ingresos difícil de justificar.
- De la Gracia de Dios.
#chistaco
Estar logueado o no, no importa.
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
Precisamente por eso me di de baja del “consejo consultivo”: porque sus decisiones no son vinculantes, los miembros no tienen capacidad real de plantear las preguntas y su papel es, en la práctica, irrelevante.
Tal y como está planteado, parece más un mecanismo para legitimar decisiones ya tomadas que un órgano de participación real, además de una fuente de ingresos difícil de justificar.
www.meneame.net/m/Artículos/ha-pasado-amperobonus