Hace 3 años | Por me_joneo_pensan... a xataka.com
Publicado hace 3 años por me_joneo_pensando_en_ti a xataka.com

tiene un alcance aterrador. Joy Buolamwini, se da cuenta de que un programa de reconocimiento facial no distingue ni identifica su rostro como el de una persona cuantificable para su base de datos. Pero sí lo hace cuando se coloca una máscara neutra... y blanca.

Comentarios

Ergo

#0 Alternativa para que quede sin cortar el titular en la entradilla
120 caracteres
'Sesgo codificado': este documental se pregunta si las IAs pueden tener prejuicios, y la respuesta tiene un alcance aterrador

j

vaya chorrada... seguro que le falta algún else

Paco, otra de boquerones y dame otro palillo...

D

Ese documental no pude terminar de verlo. Sin ser un experto en biometrica, uno puede darse cuenta de la cantidad de sandeces, la mitad de ellas contradiciendo a la otra mitad, que sueltan.

Una pena porque el tema es interesante, pero este documental es una pieza de propaganda y desinformación.

meneandro

#3 Sólo por el título, que yo tampoco he visto el documental, te digo que tan sandez no es. Las IAs son tan buenas como los datos con los que trabajen. Para cosas muy específicas son buenísimas, cuando abres el abanico e intentas generalizar, ya no tanto. Y es por uno de de los grandes problemas de cualquier cosa que trabaje con datos: tienes que filtrarlos bien primero si quieres que sean válidos y tienes que tener mucho cuidado de no introducir o producir sesgos en este punto. Luego la IA simplemente hace su trabajo, toma esos datos, los analiza y los replica en cierto modo. Por eso, muchos fallos de estas IAs son debidos a una mala elección, calibración o insuficiencia de datos (también pueden haber otros problemas a posteriori, pero lo más normal es que el problema sea previo), lo que las lleva a comportamientos incorrectos o incluso sangrantes en casos que no son la norma, en casos no cubiertos o cuando no fue bien entrenada en un principio.

D

Publicidad.

f

un programa de reconocimiento facial no distingue ni identifica su rostro como el de una persona

O sea que es tan fea que el algoritmo no la incluye. Esto no es un sesgo, es un algoritmo que no trata el100% de casos reales.

Las máquinas no pueden tener sesgos a menos que se les programe a propósito. Lo que se les suele atrubuir como sesgos, es precisamente la falta de tal cosa, lo que colisiona con los sesgos que esperamos de todo el mundo y por lo tanto también de una IA, pero una IA no puede tener tal cosa.