Hace 8 días | Por xantal a xataka.com
Publicado hace 8 días por xantal a xataka.com

Los investigadores hicieron una serie de preguntas de trivia y problemas matemáticos a un chatbot. Después, le pidieron a un grupo de humanos y a un chatbot diferente que revisaran las respuestas. Tras comprar las evaluaciones descubrieron que el chatbot estaba de acuerdo con los evaluadores humanos en un 93%. Los evaluadores humanos, por su parte, estaban de acuerdo con el chatbot en un 92%.

Comentarios

reithor

Lo esperable es que las correcciones lleven a nuevas pero diferentes equivocaciones.

autonomator

La culpa fue del chatchatbot

celyo

¿Quién vigila a los vigilantes?

Delphidius

Esto se parece cada vez más a los procesos del ADN en el núcleo celular

a

#2 Por eso que existe la teoría general de sistemas

https://en.wikipedia.org/wiki/Systems_theory

tusitala

Las personas también nos equivocamos y nos supervisan otras personas

G

Y los chatbots que supervisen a los chatbots que supervisan a los chatbots... para cuando...

a

Una distopía anunciada, y ésta sí que podría ser porque los medios están, es que internet se llene de contenido producido por IAs. Entonces las nuevas IAs se entrenen en base a dicho contenido.

Entonces estaríamos en una realimentación de tonterías que progresivamente tendrían menos y menos sentido, llegando a un punto de inflexión cuando la IA sea incapaz de diferenciar una página con contenido bueno de otra inventada (generada por IA).