Hace 8 meses | Por nilien a theguardian.com
Publicado hace 8 meses por nilien a theguardian.com

Para enseñar a estos modelos a reconocer materiales dañinos, deben recibir ejemplos de discurso de odio, violencia y abuso sexual. El etiquetado de estos contenidos lo realizan moderadores en países alejados de Silicon Valley y es una labor monótona que puede llegar a resultar traumática. Solían terminar la jornada con una llamada grupal compartiendo los horrores a los que habían estado expuestos. Algunos dicen haber cambiado como personas y han pedido al gobierno keniano que investigue sus condiciones de trabajo.

Comentarios

alexwing

#7 he visto cosa que no creerías, ver arder notame el Ban Day y strikes por motivos más allá de mi compresión. Todos esos momentos se perderán el día que los admins me echen.

Varlak

#14 uf, el ban day, recuerdo desbloqueado

troll_hdlgp

#15 Una nueva cana ha sido añadida a tu colección (f, y a la mía)

sergiobe

#14 Se le sigue echando de menos a mmpet.

Kipp

#20 Cocopino y Professor.... Troleos garantizados

sergiobe

#2 Anda, si somos del mismo año. Me has hecho sentir (el) viejo (que soy).
Si te pesco, te doy un bastonazo.

Jakeukalane

#19 holas

sergiobe

#21 Otro coetáneo.

aritzg

#24 pichones

Kipp

#9 Porque inicialmente lo hacían en Sillicon y cuando vieron que la gente no aguantaba ni 3 meses sin secuelas lo movieron donde no molestase

caramelosanto

#1 no nos preocuparon los niños haciendo Iphones, menos los que hacían remeras para Zara y zapatillas para Adidas, ¿por qué nos preocuparía esto? ¿En que clase de ser empático te han convertidoniliennilien?

KraveNtf

#1 Es interesante lo que dices porque nos vendieron que las IAs iban a liberar a las personas del trabajo monótono y analítico, para poder centrarnos en cosas más creativas y que nos llenan más como humanos.

Pero en realidad quien se dedican a cosas creativas son las IAs. Y nos dejan a nosotros trabajando para éstas con trabajos más monótonos y analíticos revizando los datos de su aprendizaje para que éste sea correcto.

ES TODO AL REVÉS.

nilien

#23 De hecho, a veces pienso que nada más monótono que la burrocracia tipo "preséntame papelajos y certificados que demuestren que has hecho lo que dices que has hecho, esto con letra del revés y aquello con firma y pirueta", para luego devolverte el dinero de unas dietas o lo que sea. Y seguro que hay un modo de simplificar eso, que no hay nada más peñazo ni más absurdo en lo que puedas tener a un humano perdiendo horas de trabajo.

Y sin embargo, cada vez va a más, y es más absurdo y más complejo...

caramelosanto

#25 lo más importante no es lo absurdo y complejo del trámite, sino el tiempo de vida que ese ser deshecha en algo totalmente banal y sin sentido para su realización como ser humano. Tan ridículo como ir al río a lavar a mano en pleno 2023.

caramelosanto

#23 me quedé pensando en tu comentario. Estamos analizando algo enorme sólo habiendo visto los primeros minutos de la película. Es muy pronto para sacar semejantes conclusiones.

Creo que es todo parte de un proceso, para reemplazar el trabajo manual primero se requiere manejar bien lo abstracto del pensamiento, entender las consignas y tareas asignadas para no cometer errores garrafales. No sé, ahora mismo lo vemos así, pero en un año es probable que también veamos avances en los demás campos a medida que nos entienda mejor un automata.

s

Es lo que se llama "aparte de puta, poner la cama".

Entrenar IA para que cuando esté lista te desechen.

Gry

Lo mismo que los moderadores de RRSS, con la diferencia de que si su trabajo tiene éxito las IA podrán reemplazarlos en ese trabajo y ni ellos ni nadie tendrán que volver a ver ese tipo de cosas.

#3 al menos los keniatas cobran

Gry

#4 Ojalá todos los trabajos que remplacen las IA fueran así.

M

He tenido amigos que han trabajado en los mataderos (es lo que tiene tanto jamón de Salamanca) y la gente que esta en las primeras etapas las van rotando porque aunque crean que lo soportan muchos dicen que al final de estar horas durante días por la noche tienes pesadillas.

kwisatz_haderach

Es que hay trabajos que son muy duros, en la policia nacional, los que tienen que ver material "sensible" (pedofilo) van rotando, por que acaban todos quemados (aqui una noticia del tema: https://cadenaser.com/emisora/2015/10/21/radio_albacete/1445430764_920603.html)
Hay muchas historias de como usar "mano barata", en plan montar "call-centers" en paises el tercer mundo, para hacer ese tipo de trabajos, daba muchos problemas y claro si quieres que una IA identifique contenido pedofilo, la IA necesita ver contenido pedofilo y alguien tiene que clasificarlo y etiquetarlo, lo mismo con violencia, asesinatos, heridas, ect... 
Que yo he visto gore como todo adolescente con acceso a internet, pero dedicarme todos los dias a etiquetar "melon o cabeza abierta" tiene que ser duro de narices...

ccguy

#13 en los contratos de Meta y google hay un apartado específico avisándote de que puedes ver material de este tipo.

Me refiero a los contratos de todo el mundo, incluyendo ingenieros de software.

Hay mucha mierda en el mundo, y si ver una peli de miedo te puede hacer dormir mal unos días, ver según qué cosas te puede dejar jodido de verdad.

Jakeukalane

#13 como el 99% de adolescentes con acceso a internet...

a

Un trabajo así te quema. Si montas, por ejemplo, una web porno, tendrás que revisar el material antes de publicarlo. Los empleados que se pasan el día revisando porno deben ser sustituidos al cabo de un año.

caramelosanto

#6 ya ni se les para.... el corazón.

j

Posiblemente poco les queden. La IA, enseñará a la IA.

Algo raro. Y en Kenia. Que no es de las primeras en la IA.

Noticia rara. O predisposición de la IA para algo raro.