El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.
El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.