Hace 6 años | Por danirod a bloomberg.com
Publicado hace 6 años por danirod a bloomberg.com

Una mujer, estadística de profesión, ha revelado acoso por parte de dos investigadores en el campo de la estadística. Tras las alegaciones, Google ha despedido a Steven Scott.

Comentarios

Visito varias conferencias sobre IA al año, y aunque nunca he visto comportamientos tan extremos como los de la noticia, ser mujer en estas conferencias debe de ser muy dificil. Recuerdo como hace unos años una amiga investigadora se quejaba de que no sabia cuanta gente iba a sus posters por que le interesaba su trabajo y cuanta por que estaba buena. Y cuando has puesto mucho esfuerzo en una investigacion pues debe joder bastante que lo que al final le importe a la gente es tu fisico. Tambien tengo que decir que he visto muchas mujeres en estas conferencias usar su fisico para poder escalar posiciones en el campo, lo cual en mi opinion a quien mas afecta es a las investigadoras honestas que tratan de destacar solo por su trabajo.

P

#4 Del uso del mayor valor que tiene la belleza de una mujer a la de un hombre no se habla en el feminismo. No interesa.

Almirante_Cousteau

#4 una amiga investigadora se quejaba de que no sabia cuanta gente iba a sus posters por que le interesaba su trabajo y cuanta por que estaba buena

Igual, y sólo igual, tu amiga es un poco flipada.

#7 creo que el mejor ejemplo es la IA de microsoft que se entrenó con datos de twitter y acabó alabando a hitler

D

#8 ergo los usuarios de Twitter son nazis?

También en China pusieron en práctica dos IA que se acabaron revelando contra la tiranía y la corrupción del gobierno comunista chino

http://www.bbc.com/news/world-asia-china-40815024

#9 A ver, no me quiero extender en este tema, pero si insistes con respuestas que no vienen a cuento pues tendre que extenderme para explicartelo. Como ya te he dicho, estos sistemas se entrenan con datos, con muchisimos datos. Por ejemplo, un agente conversacional se entrenara con millones de textos. De esos millones de textos, habrá textos actuales pero también puede haber textos de los 80, 70, 50... Epocas en las que, por ejemplo, ser gay era delito o la segregación racial estaba bien vista. Por lo tanto, ese agente conversacional puede aprender a actuar de forma homofoba o racista. Este es el problena del que se habla en el articulo. Si quieres mas ejemplos, en este video https://m.facebook.com/story.php?story_fbid=1553500344741199&id=375737692517476 puedes ver varios ejemplos en aplicaciones reales.

D

Sin entrar en el caso de estas nuevas acusaciones de acoso, que tendrán que ser investigadas y juzgadas como corresponde (en el caso de que lleguen a juzgarse, que esa es otra), hay un párrafo que me parece muy interesante, porque se refiere a algo en lo que he estado pensando últimamente. Se trata de este:

The accusations have surfaced during a growing debate over the lack of diversity among machine learning researchers and whether computer scientists are paying enough attention to bias – including gender and racial bias – in the data sets they are using to train AI systems.


Es decir, si la inteligencia artificial va a juzgar un papel tan importante en nuestras vidas en el futuro como parece que va a ser, estamos ante una oportunidad de dejar de reproducir esquemas sociales anticuados y discriminatorios. Dicho de otra forma: si la IA sigue siendo programada por varones blancos occidentales y heterosexuales, eso difícilmente contribuirá a mejorar las estructuras del modelo de sociedad actual.

Y ya sé que este modelo les parece perfecto a muchos varones blancos occidentales y heterosexuales, pero resulta que ellos no son la mayoría de la humanidad y que tal vez habría que empezar a pensar en qué puede ser mejor para toda la humanidad, antes de que esto se vaya completamente a la mierda, de seguir por este camino.

D

#2 Eso es como decir que si la IA va a ser programada por negros, la IA va a ser gansta y va a dedicarse a robar licorerias, qué asco de generalización.

lol

Pues sí, qué ridiculez. Cultura =/= color de piel. Asociar una cultura o comportamiento solo por el color de piel y pensar que eso va a condicionar irreversiblemente tu conducta es racista.

CC #1

J

#2 el problema es que estas IAs no se programan, si no que se "entrenan" a partir de datos. Por lo que si los datos estan sesgados las decisiones que tomen estas IAs estaran sesgadas tambien.

D

#6 entonces hay "datos" particulares y propios de cada segmento poblacional según su raza y sexo?

Ojo con esto...

D

#1 mejor se lo dejamos a las de "machete al machote" a ver lo que sale de ahí.