Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot. Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas. Tras comprar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%. Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.
Una distopía anunciada, y ésta sí que podría ser porque los medios están, es que internet se llene de contenido producido por IAs. Entonces las nuevas IAs se entrenen en base a dicho contenido.
Entonces estaríamos en una realimentación de tonterías que progresivamente tendrían menos y menos sentido, llegando a un punto de inflexión cuando la IA sea incapaz de diferenciar una página con contenido bueno de otra inventada (generada por IA).
Comentarios
Lo esperable es que las correcciones lleven a nuevas pero diferentes equivocaciones.
La culpa fue del chatchatbot
¿Quién vigila a los vigilantes?
Esto se parece cada vez más a los procesos del ADN en el núcleo celular
#2 Por eso que existe la teoría general de sistemas
https://en.wikipedia.org/wiki/Systems_theory
Las personas también nos equivocamos y nos supervisan otras personas
Y los chatbots que supervisen a los chatbots que supervisan a los chatbots... para cuando...
Una distopía anunciada, y ésta sí que podría ser porque los medios están, es que internet se llene de contenido producido por IAs. Entonces las nuevas IAs se entrenen en base a dicho contenido.
Entonces estaríamos en una realimentación de tonterías que progresivamente tendrían menos y menos sentido, llegando a un punto de inflexión cuando la IA sea incapaz de diferenciar una página con contenido bueno de otra inventada (generada por IA).