Hace 2 años | Por DRAG0NER0 a abc.es
Publicado hace 2 años por DRAG0NER0 a abc.es

Los algoritmos y programas informáticos basados en inteligencia artificial empiezan a ser los culpables de miles de despidos, pero también de contrataciones, en todo el mundo. En España ya se usan para medir la productividad de los empleados y para fichar a los candidatos considerados como más idóneos.

Comentarios

A

#1 Sí, sí, seguro...

V.V.V.

#1 Te faltó el al final de la frase.

#FreeAssange

r

#10 no hombre, si yo lo decía de verdad. Confío que así lo harán.

V.V.V.

#11 Pues yo que tú no confiaría mucho.

#FreeAssange

r

#10

D

"En los últimos meses se han conocido diferentes casos, como el de la aerolínea TAP en Portugal o el de la empresa rusa Xsolla. Ambas compañías dijeron adiós a cientos de empleados seleccionados a partir del resultado obtenido a través de una fórmula matemática.

El 'big data' también fue el responsable de la salida de cientos de empleados de Amazon acusados de no llegar al objetivo de productividad en 2019 en un centro logístico de Baltimore (Estados Unidos). Este mismo año, varios repartidores de Amazon Flex en Estados Unidos fueron despedidos de un día para otro por la decisión de un algoritmo que los acusó de no rendir lo suficiente, según informó Bloomberg."



Lo que nos faltaba ya para crear un ambiente agradable y relajado en el trabajo, que una puta máquina te esté monitoreando y no le tiemble el pulso para despedirte...

sotillo

#2 Hombre yo tengo muy claro que lo de trabajar está sobrevalorado y la mayoría mal pagado, si cunde un poco mi ejemplo les va a costar encontrar trabajadores a la puta máquina

canduteria

Bonita excusa, no somos nosotros es la ia que dice que hay que despedirte 😂 😂 😂

D

#6 la ia de puta 😂

Arcueid

Aunque se tiene derecho a no sufrir una decisión únicamente basada en un tratamiento de datos automatizado, incluida la elaboración de perfiles ( artículo 22 GDPR)... Sí se permite si éstas son necesarias para la ejecución de un contrato, permitido por la UE o estados miembros y con salvaguardas para el usuario, o bien aceptado explícitamente por éste.

A finales del año pasado, en Holanda, hubo unos conductores de taxi despedidos por Uber. Denunciaron porque consideraban que no medió intervención humana y porque no tuvieron oportunidad de explicarse realmente. El tribunal dio mayoritariamente la razón a Uber y les exigió que explicasen con más detalles cómo tomaron esa decisión.

Aunque siempre se puede llevar a juicio este tipo de cosas (sobre todo es más sencillo en despidos, donde entiendo se puede argumentar un cierto desempeño del trabajo; y no así en procesos de selección que no llegan a contratación, donde no se sabe si te tocan entrevistadores con opiniones negativas o es un filtro automatizado), me pregunto hasta qué punto van a describir las empresas el contenido de estos algoritmos para que los empleados o quienes traten con ellos sepan qué criterios se les aplican. Y no sólo con las empresas, sino con organismos públicos, donde creo que hace años surgió la polémica de cómo se estaban aplicando algoritmos a la toma de decisiones directamente sobre personas, y éstas no tenían posibilidad de saber cómo funcionaba. ¿Están esos algoritmos disponibles para su auditoría? ¿Los puede estudiar cualquiera con conocimientos? ¿Y/o qué organismo imparcial los audita para validar su adecuación a la legalidad, al fin, que las decisiones sean proporcionadas, etc? Y de cara a validar que no es únicamente un tratamiento automatizado, ¿hay una o más personas que lo revisan acorde con los algoritmos/flujos de decisiones, o que lo hacen de forma aleatoria para asegurar el buen funcionamiento?

La automatización es genial. Eso sí, cuando se traduce en acciones que impactan de forma importante en seres vivos yo consideraría que hay que ir con pies de plomo, proporcionando mucha transparencia y muchas garantías para revisar el proceso de ser necesario, rehaciéndolo un humano o refinándolo.

obmultimedia

los juzgados empezaran a estar llenos de demandas por despidos inprocedentes y de demandas por discriminacion en una entrevista de trabajo, tiempo al tiempo, una IA no puede hacer esto.

domadordeboquerones

zelezion ratura´

c

Si despiden a todo el mundo por baja productividad, bajas médicas, etc no quedará nadie para trabajar.

Porque al final una persona en algún momento se pone enfermo, o no llega siempre a los objetivos, o surgen una serie de circunstancias que hace que en determinados momentos no se rinda igual. Si se echa a todo el mundo con criterios muy rígidos, no quedará nadie para trabajar