“Alucinar” no es un concepto muy exacto cuando se aplica a la inteligencia artificial; puede provocar controversias, tanto por su innecesaria antropomorfización como por su engañosa concreción. Por eso, quizá sería más correcto llamarlas “falsificaciones de información” o simples “confabulaciones”. Sin embargo, esta terminología ha calado para identificar aquellas generaciones de texto que, tras comprobarse, se demuestran erróneas.
|
etiquetas: inteligencia artificial , ia , contenido
1) recibo un email preguntando por algo concreto, para saber si cierta funcionalidad está disponible, porque no la encuentran en la documentación o la interfaz…
2) me da por preguntar a copilot, y la respuesta es: “un reciente email que has recibido indica claramente que X no está disponible ya que no aparece en la documentación o interfaz”
3)
Si es que en fin.
Nada, que lo de siempre contigo. Hale, que la semana no te sea demasiado dura.
El español tiene unas 300 mil palabras, si usases aleatoriedad necesitarías verificar de media 150 mil definiciones para encontrar la palabra que buscabas. Si por contra usas una IA que dé la respuesta correcta una de cada cien veces te basta con verificar de media 50 definiciones de palabras.
Y si por contra acierta en la respuesta una de cada cinco veces de media te bastaría con verificar el resultado 2,5 veces.
Respecto a las búsquedas no sé cuan relevantes son, a priori el corazón de al respuesta es su conocimiento adquirido en el entrenamiento y no tanto búsquedas que haga cuando se lo pidas, salvo contadas excepciones.