Hace 9 meses | Por tiopio a cadenaser.com
Publicado hace 9 meses por tiopio a cadenaser.com

La supremacía del hombre sobre la mujer en los procesos de selección tiene una explicación clara. "Los algoritmos no son neutros", sostiene Jesús Lahera, profesor del Derecho del Trabajo en la Universidad Complutense de Madrid. Se articulan a través de determinados sistemas de información y de cruce de datos que pueden dar resultados con determinados sesgos. "No tiene porqué existir por parte de las empresas una intencionalidad en establecer una discriminación a la hora de contratar, pero es cierto que la propia configuración del algoritmo,…

Comentarios

thorin

#0 El enlace lleva a una noticia en catalán sobre un conflicto laboral de Iberia y Swissport.

arturios

#2 A mi también, #1 tu que lo has leído, pásanos la url buena.

sxentinel

#3 Ya somos tres.... #0 modifica el enlace, o pídelo a admin. que lo haga.

tiopio

En el artículo se establece que: «La compañía cuenta con su propio algoritmo en el que los candidatos son números, su función consiste en poner en contacto a empresas que buscan cubrir determinados puestos con los aspirantes. "En la presentación de candidaturas nunca hablamos de edad, ni de sexo y ahí entra la capacidad del consultor para determinar cuáles son los mejores perfiles"».

Robus

#1 Enlace erroneo.

anv

"No tiene porqué existir por parte de las empresas una intencionalidad en establecer una discriminación a la hora de contratar

Bueno, existe una discriminación que hacen todas las empresas: discriminan por el empleado que más rentable les resulte.

Y diría yo que la IA está haciendo exactamente eso.

S

El caso podrá ser nuevo, pero en sí mismo esto se un problema conocido. Al entrenar a IAs para cosas importantes, como el detectar enfermedades o signos precoces de estas, hay que tener mucho cuidado con los datos de entrenamiento, es fácil sesgar a la IA para se equivoque. Se intenta que todas las "clases" o grupos estén bien representados.