Hace 8 años | Por Asoka a engadget.com
Publicado hace 8 años por Asoka a engadget.com

Microsoft retira temporalmente de Twitter su chat-bot de inteligencia artificial TAY, después de que numerosos usuarios que entraron en conversación con él le enseñaran (y el los repitiera) chistes racistas, xenófobos, teorías conspiratorias, etc. Además han retirado todos los tuits que la compañía considera "comprometedores"

Comentarios

D

#6 lol lol lol

D

Si amigos. Así es la educación de los niños hoy en día. Es muy difícil que los padres los eduquen cuando tienen 20.000 inputs incontrolables.

Donde digo padres, substituyase por google.

D

Ahora que empezaba a ser gracioso

NomeRallesPesao

Creo que NO es duplicada porque la otra se ha descartado ¿no?

NomeRallesPesao

#5 Tienes razón, creía que en esa noticia no se hablaba de que ya lo habían desconectado.

editado:
#0 es duplicada.

sorrillo

#7 Editado, por lo visto sí indican en la otra que lo hayan retirado (aunque esta incorpora el anuncio oficial)

NomeRallesPesao

#12 Casi al final: "…and after a few too many comments, someone at Microsoft put Tay out of her misery."

D

#2 Duplicada go to #5

D

#9 Ya lo ha visto. lol

D

#11 Okey

D

Por favor que alguien desmienta esto

Asoka

Está confirmado por la propia empresa Microsoft: A Microsoft spokesperson has provided the statement that BI received. You can read the whole thing below.

"The AI chatbot Tay is a machine learning project, designed for human engagement. It is as much a social and cultural experiment, as it is technical. Unfortunately, within the first 24 hours of coming online, we became aware of a coordinated effort by some users to abuse Tay's commenting skills to have Tay respond in inappropriate ways. As a result, we have taken Tay offline and are making adjustments."