Hace 2 años | Por aseptico a wired.com
Publicado hace 2 años por aseptico a wired.com

En mayo, Twitter dijo que dejaría de utilizar un algoritmo de IA que favorecía los rostros blancos y femeninos al recortar las imágenes. Ahora, un excepcional concurso para escrutar un programa de IA en busca de malos comportamientos ha descubierto que el mismo algoritmo también discrimina por edad y peso, y favorece los textos en inglés y otros idiomas occidentales. "Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida", dice Patrick Hall, científico principal de BNH. Traducción en #1.

Comentarios

aseptico

#16 Si lees el artículo verás que el sesgo no viene de la interacción de los usuarios, sino de los datos con los que los programadores alimentaron la IA. La mayoría, si no todos, los sesgos de las IA proceden de los datos con los que se las entrena.

tusitala

#17 "Un segundo juez, Ariel Herbert-Voss , investigador de seguridad de OpenAI , dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que contribuyeron con los datos utilizados para entrenar el modelo."
La frase es ambigua, no sé si se refiere a programadores o a "personas normales"

D

El algoritmo tiene un sesgo, pero ¿es por la malicia propia del código o es porque los que han entrenado ese sistema le han pasado sus propios sesgos?, apuesto a que lo han programado hombres adultos heterosexuales.

aseptico

#3 "Ariel Herbert-Voss, investigador de seguridad de OpenAI, dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que aportaron los datos utilizados para entrenar el modelo".

nomasderroches

#6 Eso es lo que yo pienso, que a fin de cuentas van buscando pasta.

D

#6 que hijos de puta

tusitala

#5 Quizás los hombres se fijan solo en las mujeres mientras que las mujeres se fijan en los hombres y mujeres por igual. A los hombres nos suele importar menos que a las mujeres la ropa o el estilo del o la modelo.

R

#3 No se te olvide la opción primera, que es que no existe tal sesgo, y que la inmensa mayor parte de las fotografías se corresponden a mujeres jóvenes y delgadas.

R

#3 una IA heteropatriarcal.

ur_quan_master

Apuesto a que mi foto queda peor que la de los modelos profesionales.

Hay un sesgo ahí!

NPC1

A ver cuanto tardan algunos en decir que es discriminación positiva hacia las mujeres y las feministas cuando en realidad es utilización de mujeres como mercancía.

tusitala

#8 A ver cuánto tardan en decir que es machismo cuando en realidad no sabemos a qué se debe el sesgo.

D

¿Solo el algoritmo de la IA favorece las imágenes a las mujeres jóvenes, delgadas y femeninas? Creo que la IA hace perfectamente su trabajo, otra cosa es que nos escandalicemos, pero es un reflejo de la sociedad.

blockchain

Y el mío

leporcine

Tampoco se tendrá que esforzar mucho la IA