Hace 3 años | Por BachenRoig a bbc.com
Publicado hace 3 años por BachenRoig a bbc.com

Entonces, ¿el reclutamiento de inteligencia no es un motivo de preocupación? El gigante minorista de compras en línea Amazon no lo cree así. En 2018, se informó ampliamente de que había eliminado su propio sistema porque mostraba prejuicios contra las mujeres que se presentaban a puestos. La agencia de noticias Reuters dijo que el sistema de inteligencia artificial de Amazon se había "enseñado por sí mismo que los candidatos masculinos eran preferibles" porque con mayor frecuencia tenían una mayor experiencia en la industria tecnológica.

Comentarios

spect84

#2 ¿Estás pidiendo lógica a la sociedad moderna paternalista-ofendidita? Iluso....

anv

#66 Deberían pasarle también raza y nivel socioeconómico
Y qué te hace pensar que no lo hicieron?

El objetivo es contratar talento.
Y en eso no influye si eres negro o blanco ni hombre o mujer ni rico ni pobre


Eso lo dices porque tu opinión está sesgada por la sociedad. Se ha machacado tanto con la igualdad que asumes que todos somos iguales sin plantearte que tal vez haya gente mejor en algunas cosas y otra mejor en otras cosas. La I.A no ha hecho más que descubrir lo mismo que descubrieron con el experimeto que comenta #35

Yomisma123

#78 No es un planteamiento imaginario..
Cuando se da la oportunidad, se ve que somos iguales.

Cuando el primer negro que trabajaba en las plantaciones de algodón, fue a la escuela, se vió que somos iguales
Antes, no, claro.. Bueno, el negro se lo podía imaginar, aunque estaría tan machacado con el discurso de que era inferior que a lo mejor ni reconocía su propio talento.

Offtopic: me parece un poco surrealista estar en el s XXI discutiendo si somos iguales aunque seamos ricos o pobres, negros o blancos, hombres o mujeres...

anv

#85 Cuando se da la oportunidad, se ve que somos iguales.

A ver, es bien sabido por estudios antropológicos que NO somos iguales. Ninguno es peor que el otro. Simplemente tenemos habilidades diferentes. Por ejemplo las mujeres son muchísimo mejores distinguiendo colores o comunicando información.

Yomisma123

#95 Eso son tonterías y en todo caso sería "algunos" o "la mayoría"
Tú coges a un individuo y no sabes, porque cada persona es única

M

#85 cuando se da la oportunidad se ve que somos iguales. Pues no, en el colegio no sacabamos todos las mismas notas a pesar de tener las mismas oportunidades. Pero a parte de eso, las mismas oportunidades... ¿Tú quién crees que tiene mayor oportunidad de ir a las mejores universidades, los ricos o los pobres? Yo creo que los ricos, por tanto el dinero importa.

E

#78 no le pasa nivel socioeconómico porque los candidatos no lo incluimos en el CV.

Y el sexo, aunque no lo incluyeses, va relacionado con el nombre de pila.

y

#78 Si echas un vistazo al comentario #135 que responde al #35 que mencionas quizá puedas ver que, como nos pasa a todos en cierto modo, te afecta el sesgo que menciona el experimento de Jennifer y John.

M

#66 sí influye y eso fue lo que encontró la IA. Por mucho que haya mujeres capaces, los hombres son mayoría en tecnología, por tanto con más probabilidad encontrarás hombres válidos.

Un pobre puede ser un genio pero por lo general un rico tiene más dinero para recibir una buena educación, por tanto es más probable que los ricos sean mejores para un puesto en concreto.

Hay muchos factores a tener en cuenta, un rico también puede ser un patán pero su dinero influye.

La IA es la que no tiene prejuicios y por tanto nos enseña las obviedades que insistimos en tapar con nuestro buenrollismo de la igualdad.

Queremos igualdad pero no somos iguales y eso no es malo, el problema es pensar que ser diferente es malo. Las mujeres por estadística no serán adecuadas para ese puesto pero eso no significa que no puedan llegar a hacer bien ese trabajo sino que se suelen dedicar a otras cosas y en esas cosas serán más adecuadas que los hombres.

ppma

#17 Eso es lo que no se entiende. El sexo nunca debería ser una variable de entrada. Es lo que los verdaderos defensores de la igualdad llamamos agnosticismo de género.

#66 El problema es que se está usando una IA de una forma que ese tipo de IA no se debe usar. Este tipo de redes neuronales lo que hacen es una regresión multivariable, pero eso en ningún caso es inteligencia. Es normal que ciertas características luego vayan correlacionadas más con un sexo que con otro. El problema, es que después de entrenar la IA y guardar esa correlación en su red neuronal, si le metes como input perfiles (inventados) idénticos en los que sólo cambia el sexo acaba discriminando a mujeres, simplemente porque su correlación dice que la proporción de individuos más aptos para esos puestos son hombres. Y esto es un resultado de selección erróneo.

hasta_los_cojones

#55 Si partes de la suposición de que el sexo puede ser un dato relevante, al menos no deberías luego rechazar un algoritmo que utiliza el sexo como dato relevante.

anv

#68 Si vas a darle el trabajo a una I.A., debes partir de la suposición de que cualquier cosa puede ser relevante y pasarle todos los datos que tengas. La IA será la que aprenda por sí misma a darle peso cero a lo que no tenga importancia.

Z

#77 No, porque el conjunto de entrenamiento puede tener sesgos. Si una variable no debe tenerse en cuenta, no se le da. Simplificas el problema y te ahorras estos problemas.

hasta_los_cojones

#77 Discrepo. La parte más importante del trabajo del data scientist consiste en analizar la clase de problema, la clase de datos, como organizarlos, y cómo hacer la tarea más sencilla prescindiendo de unos datos en favor de otros.

Z

#55 No exactamente. El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas). Por tanto la IA replicaba esos sesgos. Y en cualquier caso es tarea del que diseña la IA seleccionar las variables relevantes. Si hay alguna que se sabe que no debe influir en la decisión (sexo, tiempo atmosférico del momento en que se mandó el currículum....) pues no se incluye. Las IAs no son mágicas y, o haces un proceso de entrenamiento muy diseñado y correcto o pasan estas cosas. No vale "tu mete todo a ver qué sale".

anv

#91 El problema es que seguramente el conjunto de entrenamiento tenía sesgos (porque está hecho por personas).

Realmente no podemos estar seguros de eso. Si lo hubiera hecho yo, como datos de entrenamiento habría tomado datos de personas contratadas junto con sus curriculums y resultados. De esa forma la IA puede aprender a correlacionar un curriculum con el desempeño en el trabajo. De esa forma no hay sesgos: son datos totalmente objetivos. Pero no puedo asegurar que lo hayan hecho así.

neotobarra2

#55 Lo correcto es darle toda la información que tengas y sea la IA la que aprenda qué parte de esa información es útil y qué relación tiene con el resto de los datos y el resultado.

Es que las IAs no hacen eso. A las IAs les das un listado de las personas contratadas durante los últimos treinta años y van a aprender a replicar eso de cara al futuro, pero nada más. Tú sólo puedes decirles lo que es un resultado correcto y lo que no lo es, y luego ellas replican eso.

Si la muestra está sesgada, el resultado de la IA también va a estarlo. La IA no va a llegar a la conclusión de que la muestra estaba sesgada, no sabe hacer eso.

Obligatorio para entender este tema y cómo funciona realmente una IA (a muchos se les va a caer un mito):

Gry

#17 #28 No le pasaron el sexo como parámetro directamente. La IA se las apaño para discriminar según la universidad donde había estudiado, cursos que había hecho, etc.

vixia

#17 Por lo que recuerdo (puede haber sido otro caso similar) lo que hacía la IA era discriminar contra gente que tuviese marcadores típicamente femeninos, como haber ido a una universidad para mujeres o tener en tu CV actividades como haber sido animadora. Es decir, aunque no le daban el sexo del candidato, la IA lo infería y lo usaba como criterio de exclusión. Es por estas cosas que dejar procesos enteros en manos de IA sin supervisión es un problema.

HaCHa

#8 Hay IAs que concluyen que los algoritmos guarrindongos funcionan.

D

#8 es que por ser IA es el propio algoritmo el que se dió cuenta de que si contrataba más hombres se ganaba en años de experiencia
no es un filtro, es autoaprendizaje

squanchy

#39 No es autoaprendizaje, es el entrenamiento. Si han entrenado a la IA sólo con curriculums de trabajadores varones blancos y ojos azules, la IA puntuará mejor las personas que cumplen esos requisitos que a las que no.

anv

#8 Cierto. Pero el tema aquí es que la IA aprendió por sí misma a seleccionar. Nadie le dijo que discriminar por sexo. Simplemente dedujo que era un factor a tener en cuenta.

D

#8 te llevarias alguna sorpresa en tios de +40 años de mas 120 kilos...

D

#61 ¡Oye! Que hay muchas personas de menos de 40 con muchos kilos

d

#8 Lo que hizo esa IA (es un caso conocido desde hace tiempo) es determinar que el sexo era un criterio a considerar.

danao

#8 no funcionan así las IA, no son filtros que alguien mete "if"

La potencia de las IA y los modelos radica en que son capaces de ver patrones que el humano no los detecta, le metas el modelo que le metas si dejas que la IA aprenda termina sacando esos patrones.

Muchas tendencias salen precisamente de esos patrones ocultos que el humano no mete en el modelo pero la IA es capaz de aprender por ingestar muchos datos.

g

#8 no es un filtro por sexo, es un filtro heurístico que ha aprendido la IA

C

#7 tú no, pero a una máquina no le supone ningún problema leer 5000 o 50000 CV

g

#21 #73 #97 #147 "no lo va a leer"

si vamos tomarlo por lo literal , pues la IA no va a hacer un OCR del cv¿verdad?
ya he puesto explicitamente que se procesan por heurística.

pablicius

#7 si tu recibes 5000 cv ni la IA ni tú te los vas a leer Precisamente uno de los motivos principales de sustituir a alguien de RH por una IA es que la IA puede leerse todos los CV. Para tirar CVs a la basura sin leer ya tenemos a la gente.

d

#7 Si recibes 5000 CV la IA los puede leer y los debe leer, que para eso está .

Que haya deducido que el sexo te hace más válido o menos es simplemente porque ha llegado a una conclusión errónea.

i

#7 mentira, como que la IA no los va a leer? Exhaustivamente. De eso se trata, lo que hace es inferir por lo que escribes hasta que punto estabas realmente haciendo cosas relacionadas .

D

#5 por fortuna en España no se utilizan ias y priman las subvenciones a la contratacion de mujeres.

Jesulisto

#9 Y a los que priman y a los primos de los que priman lol

UnDousTres

#19 Es prejuicio cuando la IA descarta perfiles femeninos antes de leer el CV que es lo que sucedia.

R

#28 la IA no descarta los currículums antes de leerlos. La IA analiza el curriculum entre otras cosas y lo puntúa, descartando los que no llegan a un baremo.

S

#19 Una IA es tan buena como son sus datos. Si los datos están sesgados, la IA está sesgada.

anv

#30 sesgar los datos habría sido no darle información de sexo a la IA.
La IA hizo lo que sabía hacer: buscar la probabilidad más alta de cumplir su tarea.

S

#57 Quizás, quizás no.

Si entreno a una IA para que me de los platos más sabrosos del mundo, y le doy lo que como yo cada día para que aprenda, no aprenderá a encontrar la mejor comida, sino los platos que más me gustarán a mi en particular. Aquí es igual, si hay sesgo sexista en los datos de contratación, la IA aprenderá a replicarlos.

anv

#64 Diría yo que esta gente que entrenó la IA sabe eso... No?

Yo creo que lo que ha pasado aquí es que la IA ha descubierto lo mismo que la sociedad sabe desde siempre: que el sexo sí determina algunas habilidades en las personas. Por ejemplo las mujeres son mucho mejores comunicándose o identificando colores. Mientras que los hombres son mejores en razonamiento espacial o fuerza física. Claro que habrá excepciones pero justamente el trabajo de una IA es aprender la regla general sin dejarse influir por los casos aislados.

Adunaphel

#65 En lo de razonamiento te has columpiado bien

anv

#70 No dije razonamiento a secas. Dije razonamiento espacial. Es bien conocido por los antropólogos que, en general, los hombres son mejores formando mapas mentales por ejemplo.

Adunaphel

#76 my bad

S

#65 A la vista está que no. Sesgo precisamente significa que pasas exactamente el mismo CV con el sexo cambiado, y la IA preferirá al hombre. No hay ninguna razón para ello, lo mires por donde lo mires.

No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.

anv

#75 A la vista está que no

Yo no he visto eso. He visto que la IA descubrió lo mismo que comenta #35

Sesgo precisamente significa que pasas exactamente el mismo CV con el sexo cambiado, y la IA preferirá al hombre.

Al congtrario: sesgo sería pensar que el sexo nunca es relevante. Es posible que la IA haya descubierto que para determinados trabajos hay una probabilidad más alta de que determinado sexo sea más adecuado.

No idealices a la IA, un rankeador de curriculums no ha descubierto una realidad profunda sobre la condición humana.

Tu dices eso porque lo que ha descubierto no concuerda con los prejuicios de la sociedad actual.

S

#82 Yo ni he dicho, ni pienso que el sexo nunca es relevante, no juegues a leer mis pensamientos. De hecho no objeto nada a #35. Pero espero que veas la ironía de que esos resultados se obtengan precisamente al SESGAR la información que reciben los entrevistadores.

anv

#89 No me parece ironía... sencillamente en algunas profesiones es más probable que sea más apta una persona de determinado sexo y la IA lo ha descubierto. No lo veo irónico.

S

#98 Lo decía por tu comentario en #30. Da la impresión de que solo estás de acuerdo en sesgar los datos (tus palabras) cuando los resultados concuerdan con tus expectativas.

y

#65 Si fuese una IA que siguiese un modelo de aprendizaje no supervisado podría llegar a pensar que algún patrón puede que si esté viendo la IA. Aun así ese patrón emerge de los datos, que pueden estar sesgados igualmente aunque no haya supervisión.

Pero es que me juego lo que sea a que esta IA utiliza aprendizaje supervisado, es decir se basa en señales de recompensa o castigo en función de si su predicción coincide con la del humano que ha supervisado los datos o no. Más que nada porque cuando empiezas a trabajar con un modelo de aprendizaje no supervisado "no sabes" que te vas a encontrar, lo único que va a detectar la IA son patrones en los datos, no si son buenos o malos para algo.

Y ojo, que como pasa con el aprendizaje no supervisado, aquí los datos de entrada pueden estar sesgados también y no solo el etiquetado que hace el supervisor humano.

Vamos que NO. La IA no ha descubierto nada.

Y por cierto, no hace falta ninguna IA para saber que el sexo puede determinar habilidades en personas. El sexo condiciona por lo menos tu físico, y después muchos otros aspectos como por ejemplo definir tu personalidad en base a las diferencias culturales que te puedan afectar por tu sexo. Igual que el nombre que te pongan tus padres o como te trataban tus profesores en el colegio.

Otra cosa es que ese impacto sea continuo, predecible y estable en diferentes momentos y contextos. El sexo es una variable que en función del resto de datos y el contexto impacta en muchas otras, que son las que realmente condicionan tus habilidades.

jorgemf

#57 Los datos seguramente esten sesgados porque seguramente las selecciones de perfiles de esos datos han sido realizadas con prejuicios, donde se tendía más a contratar hombres.

Básicamente es uno de los problemas de la IA actual, que los datos que usamos tienen nuestro prejuicios y la IA los aprende.

hasta_los_cojones

#47 Discrepo.

En mi equipo hay 2 mujeres de 7 personas.

Y ambas son muy buenas.

Mi sesgo, por tanto, es que las mujeres son muy buenas.

Supongo que si bajan el liston a las mujeres y contratan 3 mujeres para que haya igualdad 5 y 5, esas 3 nuevas podrían no ser tan buenas y entonces sería cuando se crearía un sesgo de que las mujeres en IT son floreros igualitarios.

Balobaloba

#69 Volveré a explicarlo porque para nada he dicho que se deba forzar una diversidad.

Ahora mismo, en la mayoría de empresas, hay cierta diversidad pero hay colectivos (mujeres, personas de razas minoritarias aquí, etc.) que somos minoritarios.
Si la IA está entrenada para seleccionar CVs basándose en las características mayoritarias en el equipo, seleccionará a hombres blancos y jóvenes. Esta selección aumentará la cantidad de hombres blancos y jóvenes y reforzará el sesgo de la selección.

Además, como ya he dicho, que la selección no debería basarse en características irrelevantes (en un puesto de desarrollo, por ejemplo) como el sexo, la edad, la raza, el color de pelo...

hasta_los_cojones

#79 Sip. Las características irrelevantos no deberían incluirse en la IA, porque encontrará sesgos estadísticos.

Lo que quería decir es que si, para eliminar el supuesto sesgo de en IT hay pocas mujeres porque en general a las mujeres no se les da bien, se baja el listón (o si se promueve entre las mujeres de forma artificial un interés por IT basado en causas indirectas), te vas a cargar el sesgo de las pocas mujeres a las que les interesa IT son cojonudas y lo vas a sustituir por "Las mujeres en IT son meros floreros igualitarios que ocupan el sitio de gente que realmente tiene talento e interés"

Supongo que hay que dejar que los cambios culturales se transformen en cambios estadísticos de forma natural, sin forzar, entiendiendo que las cosas no suceden de un día para otro. Quienes hoy soy developer senior no son niños que jugaban al ordenador el mes pasado, eran niños que jugaban al ordenador hace 30 años.

Balobaloba

#100 Estoy de acuerdo, hablábamos de sesgos diferentes.
El social, el que dice que en IT hay pocas mujeres porque en general a las mujeres no se les da bien, tiene difícil solución pero pasa por confrontarlo con hechos. Bajar el listón, tal como dices, solo lo refuerza en quien quiere seguir creyendo en esa desigualdad.

d

#100 ¿No se les da bien? Directamente se matriculan menos en los estudios de IT, así que es normal que haya pocas, nada más (llevo bastantes años dando docencia de IT y aunque el porcentaje de chicas es mucho menor de entre mis mejores estudiantes había tantos chicos como chicas).
El problema de Amazon fue que no estaba bien balanceado, históricamente habian contratado muchas menos mujeres que hombres, y la IA tiende a mantener ese criterio ya que es un atributo sencillo que le ofrece un % de acierto (asemejarse a las contrataciones históricas) mucho mayor. La IA no piensa, y a menudo no descubre nada novedoso en qué basarse, muchas veces refleja el sesgo de los datos de entrada. No creamos en ningún momento que es más "objetivo" que un humano, eso es un gran error.

M

#69 ¿no crees que si a las mujeres en general se les diese mejor la tecnología o se dedicasen más a la tecnología, en tu empresa habría 7 mujeres y 2 hombres?

Y si en un conjunto de 20 hay 7 hombres buenos y 2 mujeres buenas ¿no sería mejor apostar a "hombre" que tiene más probabilidades de que te toque bueno?

Las mujeres pueden ser igual de buenas que los hombres, tu empresa tiene dos mujeres que son muy buenas, pero eso no significa que en general las mujeres sean igual de buenas en tecnología y no digo que sea por incapacidad, puede ser porque simplemente se fueron a otras ramas, por estereotipos o por lo que sea pero se fueron.

Mientras en una carrera de tecnología haya tan solo un 12% de mujeres, veo lógico que la IA elija a hombres.

Jesulisto

#5 Lo que pasa es que la gente suele o solía programar un algoritmo en base al porcentaje de aciertos y con ese sesgo acertará más aún a costa de injusticias.

Si un día usan un algoritmo para ver si merece la pena ingresarme en un hospital o que la palme en casa pues las llevo claras.

Yo culpo a quien usa algoritmos para tareas que requieren empatía o, simplemente, humanidad.

mandelbr0t

#49 Cuando las IAs dominen el planeta estaremos jodidos, porque siendo justos con toda la vida, puede que le den el mismo valor a la vida de una hormiga y de un humano. Y para nosotros eso es bastante jodido.

Jesulisto

#74 Mas dañinos somos .)

d

#5 Un robot puesto a discriminar (su trabajo) no se dedica a la justicia. Se dedica a encontrar el mejor candidato. Deduce que para esos puestos el ser mujer se correlaciona con ser peor candidato y decide eliminar a todas las mujeres antes de seguir discriminando. También eliminará a otros candidatos basandose en otras correlaciones. Al final se quedará con un solo candidato, el bueno.

Encontrar a ese resultado final es su trabajo, y lo hace.

Para ello no usa de ningún prejuicio. Los prejuicios los ponemos los humanos cuando decimos que no se debe eliminar a ciertas personas basadas en ciertos criterios, precisamente porque hacer eso va contra nuestros prejuicios y queremos que el robot se guie por nuestros prejuicios.

No creo que un robot pueda hacer eso.

d

#81 Decir "deduce" es exagerado. Precisamente por eso, es necesario en ciertas decisiones utilizar modelos de IA que se dicen interpretables, para ver si hay de apoyo (aunque sea estadística) en su decisión. En este caso no sólo no sabemos si lo son, no sólo se sabe si son interpretables si no que además son secretos (software comercial).

m

#81: También eliminará a otros candidatos basandose en otras correlaciones. Al final se quedará con un solo candidato, el bueno.

¿Entonces estás de acuerdo en que las empresas eviten la contratación de ingenieros españoles basándose en que en España hay menos gente con ese tipo de carreras, y que por lo tanto, si llega un candidato español es poco probable que tenga la titulación requerida?

D

#5 En efecto, si lo hace una persona, son prejuicios. Si lo hace una máquina, es pura estadística. Quizá el prejuicio también lo tenemos los que juzgamos al que juzga.

D

#5 Si hay más varones con estudios de tecnológicas es lógico que se decante hacia un varón. Imagina que busca un perfil para esteticista, ¿cuantos varones vería como aptos para ese puesto de trabajo?
El algoritmo no tiene fe, ni tiene corazonadas (aunque muchas veces esas corazonadas sean erróneas), esos son sentimientos exclusivamente humanos, por ahora.

ramores

#2 La realidad presente esta para ser cambiada.
Usar data science para encontrar patrones sirve para modificarlos.

camvalf

#2 desde cuando la logica concede subvenciones en este país.?

D

#12 La AI falla porque hace generalizaciones no válidas. Como que si eres mujer no vales.

Entonces no es una IA, porque de inteligencia no tiene nada, más bien es una forma de automatizar un proceso que ya de por sí está lleno de sesgos y prejuicios indeseables más propios de una mente humana.

R

#12 así no funciona clas IAs. No generaliza como si fuera un Señor dentro de la máquina.
Lo más gracioso de todo es que cuando se Quitó el sexo de la información que recibía la máquina, se acentuaron las diferencias.

Yomisma123

#2 Si le pasan la raza y el nivel socioeconómico, también dirá que mejor blanco y rico.

¿No ves el sesgo?
Es un claro ejemplo de IA mal entrenada

Supercinexin

#2 Entonces cualquier cosa que decida una máquina es siempre y porquesí "la opción más lógica". Interesante.

Así, sin necesidad de analizar lo que la máquina ha dicho ni las causas que han llevado a la máquina a soltar esa respuesta.

Menuda sociedad nos espera, señor.

noexisto

#2 Si está fallando bestialmente la IA de YouTube (mira lo que te relaciona que cada vez es peor) y Google tiene millones y millones para invertir dudo mucho que varias compañías hayan creado un software para algo tan complejo y que funcione mejor

D

#2 se parte de un error desde el principio. El machine learning se utiliza para automatizar procesos, es decir, para realizar los mismos procesos que ya haces pero en menos tiempo y sin casi intervención humana. Y digo casi porque un paso importantísimo es la corrección en la fase de aprenizaje. Recopilas un dataset para dárselo a la máquina y que aprenda pero primero tienes tú que revisar ese dataset para corregir lo que está mal o la máquina lo que hará es repetir lo que los humanos hacen mal. Una vez entrenada tienes que volver a revisar los resultados por si hay alguna desviación (como en este caso) y si la hay corregirla y volver a entrenar la IA. ¿Qué pasa en este caso concreto? Que la IA se entrena sola, no requiere de intervención humana en ese caso, lo que hace que no se corrijan esas desviaciones. ¿Funciona mal la IA? No, cumple su labor de replicar la realidad y automatizarla pero esto supone eternizar y agravar un sesgo que ni la propia empresa sabía que tenía.

D

#2 Ya se ha demostrado en varias ocasiones que las IAs también sufren de sesgos, como el racismo y machismo. Al final, las IAs aprenden de la información que los humanos les damos como conjunto de aprendizaje.

n

#2 Falla precisamente por falta de lógica. Un ordenador no es un filósofo ni puede ser consciente de la lógica humana, sociología, antropología, historiografía, humanidades.

D

Años descartando ordenadores por quedarse anticuados y ahora ellos nos descartan a nosotros

D

#1 IA opresora machirula cristofascista

HaCHa

#40 Pues ve a Infojobs y mira cuántos anuncios ponen el sueldo (sin indicarlo en un rango tipo "De 0 a 100.000€ anuales, según valía"). ¿Será que en España toda la parte contratante es gilipollas menos tú?

Lobo_Manolo

#43 Entiendo que lo hacen porque quieren negociarlo con el posible candidato. O sea, ponerse a regatear con él.

Jesulisto

#45 No creo que haya que ser mal pensado siempre. Hace dos semanas casi duplico la oferta inicial porque tras la entrevista vi que me ahorraba meses o años de formación, el papel aguanta cualquier currículum pero una entrevista medio bien hecha te dice la valía y experiencia real del candidato.

D

#45 En ese caso deben indicarlo en la oferta, algunos lo hacen, pero son minoría.
Yo soy un pringado al principio de su carrera laboral, pero en las primeras entrevistas, siempre digo: oiga, para no hacerle perder el tiempo ni a usted ni a mí, me gustaría saber el salario, porque busco a partir de X.

De momento mis dos mayores logros han sido pasar de pedir como mucho 18000-20000 a poder pedir 30000, y haber llegado hasta la fase final de una empresa de Google en la que tuve 6 entrevistas.

Y, obviamente, ni infravalorarte ni sentirte el puto, hablando, negociando, siempre se puede llegar a un acuerdo.

E

#56 eso se llama banda salarial, en tu caso, de tu mínimo a mínimo +5k, y es lo que pedimos todos los candidatos en las inmensa mayoría de ofertas de mierda que nos encontramos, que parece que algo tan básico como lo que vas a cobrar por un trabajo, es el secreto mejor guardado de la NSA y que solo puedes saber si reúnes una escama de dragón, medio litro de sangre de unicornio y las siete bolas de dragón.

#45 será porque no hay "consultoras" que hacen estudios de mercado preguntando sueldo a candidatos por puestos imaginarios, o consultoras que se dedican a la pesca de arrastre, porque van a ofertar al que pida menos de todos los que parezcan mínimamente válidos. en determinados temas pensar mal es curarse en salud

D

#43 se puede negociar segun experiencia y habilidades.

D

#42 Yo denuncio siempre que no veo sueldo, ya sea en el campo de infojobs o en la descripción de la oferta.

Jesulisto

#40 Ahí discrepo. Yo parto de un mínimo pero tras la entrevista no me importa añadir 5K o así a ese mínimo si veo que es alguien que no quiero dejar escapar.

g

#40 Opino igual que tú, la empresa es la que define los requisitos del trabajo y sus funciones y por tanto es la que decide la valía de dichas funciones. Si luego el trabajador desempeña una labor más valiosa, se le puede subir el sueldo a posteriori en la revisión, y si no hace ni la hueva se le puede echar en el periodo de pruebas.

No obstante también hay que ser listo y saber mas o menos lo que vales, que hay recien licenciados que se piensan que el mundo es suyo y por menos de X ni se levantan de la cama. Os recomiendo seguir la guia de Hays para orientarios (poned datos falsos, lo descarga igual).
https://cloud.email.hays.com/Guia-Salarial-2021-profesionales

Feindesland

#67 Gracias. Me lo he bajado. Esta noche le echo un ojo.

D

Lógicamente, para la IA, el género, si se incluye en los currículums, es para considerarlo.

Nylo

Las IA son buenas encontrando correlaciones, el problema aquí es que como correlación no implica causalidad, pueden llegar a conclusiones incorrectas. La IA ha aprendido que casi siempre su "profesor" ha elegido a un hombre, pese a que no lo eligieron por ser hombre sino por su experiencia. Pero esto se ha repetido las suficientes veces como para que la IA crea que el sexo es relevante.
Es incorrecto dejar la elección a lo que una IA pueda concluir en base solo a sus datos pasados, sin ponerle a esa misma IA las normas sobre qué datos deben influir y cuáles no en la decisión. La IA nunca debería haber llegado a buscar la correlación con el sexo porque debería haber sabido desde el principio que eso estaba vetado. ¿Por qué no se le vetó? Pudo ser por error o descuido o pudo ser conscientemente. Lo primero es perdonable, lo segundo, si su programador estaba dispuesto a obtener resultados que discriminasen en función del sexo, no lo es.

Treal

#35 eso no interesa al chiringuito, circule.

slayernina

#35 también está el experimento de John y Jennifer, que contradice directamente lo que dices...

La diferencia es que en el de Australia se tomó como factor los años de experiencia (y los hombres no suelen interrumpir sus carreras, por tanto, acumulan más experiencia) y las mujeres sí.

En cambio, en el de John y Jennifer quedó claro el sesgo igual experiencia: contrato a John porque sí

Cc #48 #60

anv

#35 Evidentemente esta IA aprendió lo mismo.

anv

#14 O tal vez demasiado bien entrenada para nuestros prejuicios... Como se deduce de lo que comenta #35.

noexisto

#35 pues en 5 minutos no lo he encontrado (te lo he visto antes y he hecho dos búsquedas: google y DuckDuckGo)

noexisto

#35 Enlace a esto en #110

oliver7

#35 usted lo que necesita es un curso intensivo con perspectiva de género.

heffeque

#35 #110 Caso similar en EEUU:

En orquestas, hace años se empezaron a realizar "blind auditions" para eliminar barreras a mujeres y personas de otras culturas, y mirad lo que piden en 2020:

To Make Orchestras More Diverse, End Blind Auditions:
https://www.amren.com/news/2020/07/to-make-orchestras-more-diverse-end-blind-auditions/

Yomisma123

Ejemplo de IA mal entrenada.
Ha aprendido una correlación con datos que no son relevantes para su objetivo.
Imagináos la IA policía: hombre, inmigrante = a la cárcel

R

#14 pero es que no es eso lo que ha aprendido la máquina. La máquina de hecho fué entrenada con datos que excluían el sexo del candidato de los currículums, y se neutralizaba el género para evitar que la IA pudiera identificar el sexo del candidato. Y el resultado fué que en lugar de reducir la diferencia entre hombres y mujeres, las acentuaba.

Feindesland

Yo os cuento mi experiencia: las pocas veces que he tenido que contratar a alguien he seguido el criterio de contratar a quien me saliese de los huevos. Sin explicaciones.

Hay quién te genera confianza y quién, no.

Hacer las entrevistas un lunes a las 8 de la mañana en un sitio poco accesible es también un algoritmo. Ese no lo he seguido, por cierto, pero me dicen que funciona muy bien y filtra mucho.


Yomisma123

#16 A mí un chico se me levantó y se fue en una entrevista cuando le dije que probablemente no tendría plaza de parking en la oficina
(un chaval buscando su primer trabajo, ojo, y la empresa era muy buen sitio para currar)

Feindesland

#20 ¿En seriooooooo?
lol lol lol

t

#20 ¿eres de rrhh? jur,jur,jur

Yomisma123

#33 No, que va.
Era una entrevista técnica, pero el chico me preguntó.. Y se fue
Por mi culpa perdimos a un genio, un diamante en bruto

comburente

#41 antes de empezar a trabajar se tienen muchos pájaros en la cabeza

Hace unos años contrataron para mi departamento a un chico recién salido de la carrera que en todo se atascaba y que te interrumpía constantemente con preguntas triviales cuya respuesta podía encontrar con un minuto de investigación (o preguntándole a Google). Mi apuesta era que duraría el periodo de prueba. A día de hoy, es la persona más productiva del departamento, con diferencia.

El problema de estas cosas es que en la vida se aprende a base de cagarla roll

slayernina

#20 si viene del 5° carajo y tiene que llevar coche (o no tiene) me parece lógico... A nadie le renta 1h o más de transporte público ida y vuelta todos los días

HaCHa

#16 Lo que filtra mucho es preguntar por el sueldo que ofrecen a la primera de cambio.

Jesulisto

#16 A mi me dijo uno que había entrado a la entrevista porque su padre lo llevaba y esperaba en la puerta pero que eso de trabajar y madrugar no iba con él.

Lo mismo está ahora vendiendo pollos y medios pollos o de subsecretario, las dos posibilidades me parecen igual de plausibles lol

anv

#16 Pues si... Seguro que si se lo pones difícil vas a conseguir gente desesperada por trajar por cualquier sueldo...

comburente

¿Qué será lo siguiente? ¿Usar un sistema parecido para... no sé, calcular la prima de un seguro de automóvil?

comburente

#31 de ahí mi comentario. Es exactamente la misma discriminación, e igualmente automatizada.

g

#31 Los cálculos de los seguros son idiotas.
Me quise hacer un seguro con Axa y me cobraban un dineral. Me hice ese mismo seguro de Axa a través de la aseguradora de El Corte Inglés en lugar de directamente, y era más barato, pero encima cuanto más coberturas le añadía más barato era. Al final en vez de tener un terceros me puse un todo riesgo con franquicia y me costó menos dinero.

m

Sí la ia hubiese preferido a mujeres la noticia sería: la ia demuestra que las candidatas mujeres son mejores que los hombres en tecnología.

slayernina

#34 la noticia sería que sin trabas ficticias, y sin considerar a los hombres mejores automáticamente, las mujeres son iguales que los hombres.

Todos sabemos que las carreras STEM son campos de nabos que apestan a cultura bro a kilómetros, más en EEUU

drocab2012

Las computadoras descartando a mujeres, a jovenes con poca experiencia, a mayores de 45 años.... oh!

C

Sueño es con jefes robóticos con avanzada IA. Estoy harto de los jefazos trepa, los que piden constantemente informes sólo para sentirse jefes, los que hacen larguísimas reuniones inútiles, los que se creen jefes pero realmente son el primo tonto puesto a dedo porque es familia de los dueños, los que son capataces en vez de ser jefes, etc.

Dene

Reglamento europeo de proteccion de datos . Artículo 22 - Decisiones individuales automatizadas, incluida la elaboración de perfiles
1. Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar.


Aquí la clave está en el "únicamente".. En Europa, con nuestra ley actual, si se demuestra que la decisión la toma únicamente la máquina, es totalmente ilegal y denunciable. Si las decisiones luego las revisa una persona, aunque sea un hdp con mil sesgos negativos, pues es legal.

D

#24 Esto es para que haya un hdp humano responsable jurídico de las decisiones. Si no, menuda bicoca.

noexisto

#24 Lo de la cámara y micrófono sin permiso expresó también (y tampoco estoy muy seguro si lo hace una IA)
Cito:
“Otro proveedor de software de contratación que funciona con inteligencia artificial es HireVue, con sede en Utah, EEUU. Su sistema de inteligencia artificial graba videos de solicitantes de empleo respondiendo a preguntas de entrevistas a través de la cámara web y el micrófono de una computadora portátil.”

Dene

#92 seria ilegal que una empresa en la UE para contratarte use ese tipo de sistemas, si no hay una revisión posterior por parte de una persona. Aparte del tema de la transferencia internacional de datos a USA (el privacy shield como se veía venir era muy ilegal) de la que deben informar, si la IA directamente te descarta sin que nadie lo revise, ilegal, decisión automatizada...

Loloncio

Pues ya que estamos, podían también emplear la I.A. para corregirles las faltas de ortografía de las noticias.

H

la culpa de la 'IA', el nuevo meme

SON_

¿Qué le pasa a esa gente de las fotos del principio? Están como riéndose frenéticos

L

Es lo que tienen las IAs, que aprenden solas y tienden a buscar patrones que predicen éxito. En cualquier caso me extraña mucho que hayan usado el sexo del candidato como variable. Me temo que el sexo es algo fuertemente ligado a otros indicadores que predicen éxito en tecnología y son estos los que la IA ha detectado.

D

Lo malo que si fuese al contrario aquí no pasaba nada, meritocracia o cache

h

Que la recolección de datos es un primer sesgo muy fuerte es evidente. Pero también hay que entender que en la sociedad sí que hay colectivos donde, ya sea por gustos sexuales, raza... etc son estadísticamente peores trabajadores en cosas objetivas como: logros conseguidos, perseverancia... La IA detecta eso, no detecta si es justo dicho juicio ya que "pobres, hace 100 años fueron esclavizados por nosotros".

Realmente si quisieran algo más igualitario deberían de hacer un random() entre todas las personas que se apunten.

En volúmenes micro entiendo que es tonto utilizar estos filtros tan fuertes puesto a que tienes capacidad para filtrar. Pero en estudios macro no es posible por la cantidad ingente de recursos. Por trabajo, cada día tengo que analizar a miles (entorno a 30-35 mil) de personas en cuanto a uso de un producto y no veas: poblaciones de una religión que se ofenden con un cambio nuevo, otros que no entienden el contexto social de una frase, iconos que no significan lo mismo... no hay homogeneidad por mucho que se intente imponer.

1 2