Los modelos de IA a menudo producen resultados falsos, o "alucinaciones". Ahora OpenAI ha admitido que pueden ser el resultado de errores fundamentales que comete al entrenar sus modelos. El problema fundamental es que los modelos de IA están entrenados para recompensar las conjeturas, en lugar de la respuesta correcta. Adivinar podría producir una respuesta superficialmente adecuada. Decir a los usuarios que su IA no puede encontrar una respuesta es menos satisfactorio.
|
etiquetas: openai , admite , alucinaciones