Usuario1: Menuda tontería de noticia
Usuario2: Eres un saco de mierda del que solo sale mierda por la boca
Usuario3: No me llores
Usuario4 (a Usuario3): ¿Respondes con insultos? Reportado por troll
(Dramatización)
- ¿Y tu quien eras?
- La obispo de Canterbury
- ¿Quién?
- La líder de los anglicanos
- Pues me la agarras con la mano
- PERO SANTO PADRE
- Te falta calle, en Chicago no habrías durado una semana
Tengo la sensación de que los que más usan los reportes son justo los usuarios más tóxicos.
O, al menos, los que van por los comentarios diciendo que "te he reportado", suelen ser usuarios que si que deberían merecerse un buen strike.
Que nadie de aquí se de por aludido, en el nótame somos todos maravillosos y la excepción a lo que he dicho
Y tras la experiencia con el decreto de alquileres, ¿el gobierno no podría derogar la ley de blasfemia por decreto ley?
Y aunque en un mes la reforma fuera rechazada por el Congreso, pues un mes de cagarnos en el copón bendito sin repercusiones. El mes más feliz para los humoristas gráficos.
@vazana Si, es bastante probable que mucha gente le criticará por dar casas a mendigos, que algunos serán inmigrantes, mientras que el resto de españoles no pueden acceder a una vivienda
@Ferran sí, he visto cosas similares por aquí, sobre todo en papelerías y librerías. También he visto un incremento de la edad media de los repartidores de comida a domicilio, incluso muchos de ellos de más de 60 años.
Os habéis preguntado alguna vez por qué los cocteleros mezclan las bebidas con los brazos arriba? Aquí la respuesta: x.com/i/status/2048899995063947578
@Asmode0 los de x/twitter han modificado sus sistemas, su bbdd para que el mensaje tenga los atributos de fecha que quieran aunque no sea de esa fecha.
Veo que los nuevos cambios propuestos para Menéame se basan en todo lo malo que nos ha ido contando Blackmirror a lo largo de sus 7 temporadas. Pues vale. Creo que alguien no ha entendido aún cuál era el punto fuerte de esta comunidad.
El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.
El contexto es mi artículo para VIA Empresa que publicarán el dos de mayo en texto (catalán (original) y español (traducción)).
La canción es en inglés. No es para ofender, es para identificar catetos.
Usuario2: Eres un saco de mierda del que solo sale mierda por la boca
Usuario3: No me llores
Usuario4 (a Usuario3): ¿Respondes con insultos? Reportado por troll
(Dramatización)
Y esto es lo que decía en: @angelitoMagno
- La obispo de Canterbury
- ¿Quién?
- La líder de los anglicanos
- Pues me la agarras con la mano
- PERO SANTO PADRE
- Te falta calle, en Chicago no habrías durado una semana
O, al menos, los que van por los comentarios diciendo que "te he reportado", suelen ser usuarios que si que deberían merecerse un buen strike.
Que nadie de aquí se de por aludido, en el nótame somos todos maravillosos y la excepción a lo que he dicho
Y aunque en un mes la reforma fuera rechazada por el Congreso, pues un mes de cagarnos en el copón bendito sin repercusiones. El mes más feliz para los humoristas gráficos.
Va, ahora a provocar el abuso reactivo que tanto gusta a mis maltractadores.
El problema es usar la IA para etiquetar personas en términos subjetivos (“molesto”) y aplicar consecuencias automáticas. Eso, en Europa, entra en perfilado sensible (ley IA europea), puede activar el Art. 22 del GDPR, roza prácticas de “social scoring”.
Traducido: alto riesgo legal y cambio peligroso en la cultura de esta comunidad a través del karma.
Cuando una plataforma deja de moderar comportamientos y empieza a juzgar personas, deja de ser sistema y pasa a ser tribunal.
EDITO ampliando lo de "automáticas": Y no, meter “humanos (moderadores) en el loop” no arregla el fondo.
Si el sistema sigue clasificando a usuarios como “molestos” y aplicando consecuencias, lo único que cambia es quién firma la etiqueta.
En Europa puedes moderar lo que alguien hace. Pero cuando empiezas a puntuar lo que alguien es, entras en terreno legalmente frágil y culturalmente tóxico.