Publicado hace 2 años por Meneador_Compulsivo a pressreader.com

La ministra de Justicia apuesta por el talento femenino en las jornadas europeas ‘Diálogos sobre el Futuro de la Igualdad’. «Se necesita talento femenino, porque la tecnología se construye con algoritmos sexistas. Aunque parezcan neutros, la mayoría son creados por hombres, donde se generan estereotipos y discriminación a la hora de aplicar esa inteligencia artificial sobre la mujer», señaló la ministra de Justicia española, Pilar Llop,

Comentarios

D

#3 Para ser informático te veo muy poco informado de como aprende una IA, exacto, copiando comportamientos humanos, si los humanos son sexistas o racistas entonces la IA lo será también, otra cosa es que le pongas restricciones para evitarlo, pero si no lo haces....

PD: Te lo explica también #4

PauMarí

#10 mejor hablar de "sesgos raciales o de género" más que decir machista o racista, no es lo mismo (en el contexto este, claro).

D

#27 Pues "sesgos raciales o de género" pero vamos, es a lo que me refería

PauMarí

#30 lo digo en el sentido de que, a diferencia de un humano, una IA, si tiene algún sesgo de esos, no es "intencionado", no se si me explico, en el caso de un humano, el racismo o el machismo sí conllevan una "mala intención" y una percepción de los demás de una manera totalmente parcial, eso no se aplica a una IA.

D

#34 Sí, sí, por supuesto, eso no lo niego, efectivamente la IA basada en redes neuronales no tiene una "intencionalidad" (a no ser que se vuelva autoconsciente, detecte que existe tal sesgo y aún así decida seguir aplicandola lol )

PauMarí

#38 tinfoil tinfoil tinfoil

D

#40

PD: Sí, ya sé que estamos muy lejos de que eso suceda y de que se podrá limitar lol

ElTioPaco

#10 se lo suficiente de inteligencia artificial como para ser consciente de lo poco que se de inteligencia artificial, eso me coloca en una posición de "mejor no voy a hablar de esto" cosa que más de uno sobre todo si es ministro, debería hacer.

De primeras apuntaré a un hecho, el algoritmo de aprendizaje es una cosa, y la fuente de la que pueda aprender es otra.

Así que tú y la ministra, en un segundo, ya no hablais de lo mismo, y si, ambas cosas pueden tener sesgos, o no tenerlos.

Y no te lo tomes como una crítica, es que he estudiado lo suficiente sobre el tema como para aprender lo más básico y querer olvidarme de ello.

ElTioPaco

#10 continuo lo que he dicho en #52

para dejar claro el tema del todo, y después de esto voy a intentar no mojarme mas.

El recurso de datos puede estar contaminado con sesgos ideológicos que influyan en el resultado final de la IA, y eso es bastante incontrolable, la IA será tan racista, machista o vegana como la red social/foro sobre la que se lance su aprendizaje.

El algoritmo es casi imposible que este contaminado si no es a propósito, alguien tendría que dar más peso a un parámetro de tipo "blanco", "Hombre", "Animalista" para que eso ocurriera, y dudo que los programadores aunque sean hombres lo hagan a propósito.

Si, la IA podría llegar a pensar que el valor de la opinión de un hombre blanco es superior que la de una mujer negra, pero eso de nuevo... Lo aprendería del recurso de datos.

Para que te hagas una idea de la subnormalez que es culpar a los programadores de sexo masculino.

Y ya lo dejo, porque me estoy metiendo hasta la rodilla en aguas donde mis conocimientos no se sienten del todo cómodos.

D

#52 Bueno en realidad y por matizar, una IA basada en una red neuronal utiliza un algoritmo de retropropagación (propagación hacia atrás o backpropagation en inglés), si bien es cierto que ese algoritmo no puede tener un sesgo, el sesgo viene de la fuente de aprendizaje en la que se detectan patrones y tendencias y la IA luego resuelve en función de ese aprendizaje que sí puede tener sesgos.

Pero vamos a lo que voy es que no hace falta cogersela con papel de fumar para entender que la ministra (que por cierto a mi personalmente me parece un poco meh... ) a lo que se refería es que el conjunto de una IA (algoritmo más fuente de aprendizaje) se construye a partir, precisamente, de una fuente de informacion para el aprendizaje llena de sesgos, y no es la primera vez que pasa que la IA detrás de twitter en una foto detecta como más importante a un hombre blanco que a uno de color, por poner un ejemplo, y lo siento pero sí, es culpa de los que le han dado la fuente de datos (habitualmente los programadores) y/o de los que no han "filtrado" los mismos para que no tenga esos sesgos.

PD: Yo algo he dado, tengo la asignatura de Inteligencia Artifical aprobada, pero reconozco que oxidada, además las redes neuronales se entraba en profundidad en otra que se llamaba Aprendizaje computacional y esa no la cogí, pero la base la tengo.

ElTioPaco

#63 "a lo que se refería es que el conjunto de una IA (algoritmo más fuente de aprendizaje) se construye a partir, precisamente, de una fuente de informacion para el aprendizaje llena de sesgos,"

No, ella habla directamente de los programadores de sexo masculino y del algoritmo que han programado, no de los sesgos provenientes de los datos, y lo dice diciendo que por ESO, se necesitan más programadoras.

Lógicamente lo dice desde la ignorancia más absoluta, y si ella o el asesor de turno se hubieran informado algo, probablemente lo hubiera dicho de otra forma (dejando a los programadores masculinos mal por el camino de alguna ingeniosa forma)

Y el contexto es el que es, esta soltando un discurso de mujeres para mujeres en las TICs (lo de la IA es solo una pequeña parte) y echar una pedrada a los programadores másculinos se ve que debe vender (no tengo claro que venda tanto).

Personalmente, trabajo en una oficina llena de programadoras, mi realidad sobre "solo los tíos desarrollan software" es diferente a la de esta señora, aunque también es cierto, que hace 20 años, había muy pocas mujeres en mi carrera"

D

#66 En lo de las programadoras ha patinado porque ese error lo pueden cometer cualquiera, claro que si bien es cierto que si alguien conoce el sesgo y no lo corrige me da que es más propenso a no corregirlo el que está de acuerdo con el sesgo.

Sí, yo también tengo programadoras y administradoras de sistemas. cada vez más.

letra

#4 También.

nachico

#4 Realmente se alimenta de datos, y éstos no son ni sexistas ni racistas, sino únicamente datos.

El problema es entrenar al algoritmo con datos que puedan producir un sesgo. Si le pasas datos que indican que el 60% de los crímenes los cometen negros, siendo el 20% de la población (por ejemplo), el algoritmo deducirá que el hecho de ser negro es un claro indicador de criminalidad.

ElTioPaco

#4 la ministra está hablando de los algoritmos, y tú del recurso de datos.

No hablais de lo mismo.

PD, en ambas cosas puede existir un sesgo, y puede no haberlo.

letra

#3 Las declaraciones de cuñao de tasca son las tuyas.

ElTioPaco

#12 si relees mi comentario, verás que ya he dejado claro ese punto, se lo suficiente de IA, para saber que cualquier comentario sobre el tema que haga, es cuñadil, la gracia es estudie IA en la carrera, y eso me coloca con "más conocimiento" que la mayoría de los que posteen en este hilo hoy.

letra

#53 Ah, cuñao, pero con carrera.

ElTioPaco

#69 no no, sin carrera. Seguro que la ministra me da veinte millones de vueltas en el tema.

h

#3 Pues yo pienso lo contrario. La ministra de justicia debería esta muy al tanto de los avances en IA porque no debe de quedar mucho tiempo para que haya juicios donde la "acusada" sea una red neuronal y haya que dilucidar quién es el responsable subsidiario. Si un dispositivo inteligente hace algo ilegal autónomamente va a haber que discernir si ha sido a causa de los embeddings de Google, del task adaptation posterior que ha hecho la empresa que vendió el dispositivo o de lo que haya aprendido por reinforcement learning una vez en manos del comprador.

ElTioPaco

#41 estoy de acuerdo de que debería estar al tanto.

No lo está.

D

#3 hasta que legisla para cerrar tal o cual empresa porque sus algoritmos no son multiculturales.
Así que lo que diga esta señora nos afecta a todos.

k

Gensanta, cuanta estupidez

R

#1 Pues no lo es tanto. Es sabido que los algoritmos tienen prejuicios ( o más bien, quienes los desarrollan). Publicada en Meneame, por ejemplo: https://magnet.xataka.com/preguntas-no-tan-frecuentes/por-que-al-algoritmo-de-google-es-racista-pista-porque-nosotros-lo-hemos-querido

J

#11 qué tendrá que ver quién desarrolle un algoritmo con si el algoritmo funciona o no.

Es como si me dices que la Teoría de la Relatividad de Einstein no es válida porque el hombre era machista... O el teorema de Pitágoras!

R

Hola #18 . No entiendo tu respuesta :(. Yo no he entrado en si funciona o no, sino que he compartido una noticia dónde se da un ejemplo de algoritmo racista. Y lo es, comos e explica, porque los que lo programan tienen ideología, entendida como un conjunto de creencias y valores (cómo no podría ser de otra forma). No sé si estamos debatiendo de lo mismo o te he malinterpretado.

J

#23 algoritmo
nombre masculino
MATEMÁTICAS
Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas.
"debes conocer el algoritmo que se emplea para hallar las raíces cuadradas".

No veo cómo diablos una operación matemática puede ser racista.

k

#11 El sesgo está en los datos con que se entrena una IA, no en los algoritmos en si

T

#11 En todo caso, y tratándose de IA, más bien puede serlo el material con el que se entrena esa IA, y también depende de cómo sea de dirigido ese entrenamiento.

Lo que queda claro es que esta señora no tiene en absoluto idea de lo que habla. Nada que no supiésemos porque ya se sabía de qué pie cojea.

letra

#1 Y la que os queda.

D

no, no es el mundo today 😐

letra

#2 Es el "Paleto Today" cada vez que se leen los comentarios a este tipo de noticias en Menéame.

D

#14 cuéntame: cómo se hace un algoritmo sexista?

#17 "AI can be sexist and racist" implica que la inteligencia artificial se construye con algoritmos sexistas? No, si lees la simple entradilla ves que se refiere a los datos con los que se alimenta. Alguien en este hilo tuvo a bien meter una "noticia" de xataka sobre lo racista que es el algoritmo de Google. El algoritmo de Google se nutre de los datos que los usuarios le dan. Una IA será tan X-ista como los datos que se le proporcionen. El algoritmo tiene poco que ver

letra

#48 Pues "hinjeniero", si el algoritmo lo programa un menda como tú, para lo que te da el coco, será sexista. El algoritmo se basa en unos criterios humanos que filtran la información, no es una ruleta del casino de Benidorm. ¿Lo entiendes?

D

#59 si la información se filtra por género es sexista, si no se tiene en cuenta el género no. Esto es como el bot de Microsoft que tuvieron que retirar, las IAs aprenden con los datos que se les dan (https://www.engadget.com/2016-03-24-microsoft-tay-ai-grounded.html). Pero nada, con tu ad hominem insulto mediante estoy segurísimo que tienes argumentos de peso de cómo funcionan

D

#2 Puede que sea la revista científica con factor de impacto más importante del mundo. Quién sabe.

https://www.nature.com/articles/d41586-018-05707-8

T

Los grandes avances en inteligencia artificial actuales no están basados en algoritmos sino en redes neuronales. Esta señora no sabe de que habla.

D

#5 es cierto que la señora no sabe de lo que habla, pero las redes neuronales se entrenan con algoritmos. Y no todos los avances están basados en redes neuronales... será por algoritmos...
Creo que tú tampoco sabes...

T

#6 Por favor no digas barbaridades hombre, las redes neuronales se entrenan con ejemplos, no con algoritmos.

D

#24 Lo siento, quizás no he entendido tu primer comentario, parecía que aludias a que no era así pero luego he visto tú comentario en #25 contestando a #6 y veo que dices lo mismo que yo

D

#25 Correcto

D

#25 pfffff

https://scholar.google.es/scholar?q=training+algorithm+neural+networks

o pásate simplemente por aquí, que creo que no sabes ni lo que es una red neuronal...

https://es.wikipedia.org/wiki/Red_neuronal_artificial

T

#31 Por favor, déjalo ya hombre. No ves que estamos diciendo lo mismo todos menos tu?

D

#45 ¿pero quiénes sois todos? Si te he puesto enlaces para que veas que has patinado y que lo que estoy diciendo es obvio y comprobable con una búsqueda en Google...
Lo tienes en la wikipedia y miles de publicaciones científicas... pero supongo que "todos" sois tú, y otro meneante más, que es un ignorante... lol

T

#49 Pues nada, para ti la peseta, esta claro que no puedo competir contigo que hoy eres experto informático, hace un rato experto en textil, ayer experto en leyes de circulación, antes experto en política exterior y política nacional, sabes de dios y de los extraterrestres, de Madrid, de Lugo y de homosexuales, de medicina, de economía, de casas de apuestas.
Y todo esto mirando 2 paginas de tus comentarios.
Me doblo ante ti y te doy la razón en todo, Marhuenda a tu lado es un paleto.
Ala adiós muy buenas que vas para el ignore de cabeza 😂 😂 😂

D

#5 Las redes neuronales son sistemas que predicen patrones y tendencias y toman decisiones en base a ellos, si el patrón o la tendencia es sexista la toma de decisión tenderá a serla, no confundamos como se construye un sistema de inteligencia artificial (a partir de redes neuronales) con como van a ser sus deciones ya que se basan en una entrada de información y los resultados en base a la experiencia de las mismas.

Por ejemplo, si esa misma red neuronal la tienes en tu casa y ve que te gusta encender la luz antes de que no puedas ver cuando empieza a oscurecer, aunque no sea optimo o correcto puede decidir que hay que encenderla en la domótica de tú casa, a lo que voy es que una red neuronal puede decidir tomar decisiones que no son correctas a priori, solo por el patrón y tendencia que le ha generado el usuario.

T

#20 Nadie dice que no.

D

#20 "... con base en..."

D

#32 Perdón me pierdo, igual he escrito algo mal? no sé a que te refieres

D

#35 El comentario me parece correcto, sólo objeto el uso de "en base a" en lugar de "con base en". Y, de hecho, usaste un correcto "se basan en".
Disculpa la molestia.

D

#44 ah, vale, disculpas, sí, igual no es correcto, gracias por el apunte

c

#20 Pasó una vez en una empresa, que pusieron la selección de nuevo personal en manos de una IA. El trasto usó como base de partida los informes de rendimiento de los empleados actuales, y dedujo no aceptar a ninguna mujer.

La decisión la consideramos inaceptable, pero sexista no es, porque una máquina no sabe hacer eso del sexismo.

c

#5 En realidad tanto da. En ninguno de los casos tienen capacidad de aplicar sesgos.

D

Quita Nature, que Kotsumi sí sabe de verdad cómo funciona una IA y tú no. Que te crees algo por ser la revista científica con factor de impacto más importante del mundo.

https://www.nature.com/articles/d41586-018-05707-8

D

#16 el artículo que enlazas no dice nada de algoritmos sexistas...
La ministra demuestra en una frase que no sabe de lo que habla...

D

#21 El texto del titular del artículo dice exactamente eso y tú dices que no, toma ya lol

Eres el claro ejemplo de disonancia cognitiva y bajas capacidades del ser medio de la ralea ultra lol

D

#36 dice que la inteligencia artificial puede ser sexista, no que los algoritmos sean sexistas...
y no te estarás refiriendo a mí como "ralea ultra", que ya habría que ser imbécil...

K

Traducción simultánea: "No tengo ni puta idea de cómo funciona la IA".

koe

Cuando este tipo de sensacionalismo lo usa la derecha es más fácil de ver.

c

Esta gigante mental es capaz de creerse que un algoritmo escrito por mujeres no haría exactamente lo mismo.

En Google acertaron con una cosa. Un no programador no puede ser el jefe de un programador. La de gilipolleces que ha evitado eso.

ipanies

Las IA son reflejos de nuestras imbecilidad es, como nuestros políticos

D

#_55 gran argumentación, bravo

letra

Las IA no aprenden, procesan la información según las pautas que se les dan. Si en el algoritmo vuelcas información de los que votan negativo las noticias feministas en Menéame tendrás un algoritmo con criterios de palurdo.

Y yo no te he insultado, a no ser que tu nick, "hinjeniero", sea un auto-insulto que te haces, que podría entenderlo.

D

Ella prefiere una IA libre se esos sesgos machistas, como la que aprueba el genocidio sin ningun tipo de discriminación con base en el sexo.

R

Hay cientos de artículos (¡y libros!) sobre la necesidad (o no, por supuesto) de regular la IA , el "peligro" de los algoritmos o simplemente la necesidad de una IA ética.

Podremos estar de acuerdo o no con las palabras de la ministra, pero es un debate que existe como para despreciarlo directamente por aversión al color político o al tema al que lo enfoca.

Buscando en Google se puede encontrar fácilmente muchos artículos sobre la necesidad de regular la IA. Los primeros resultados que encuentro castellano (sin entrar en el contenido)
https://www.bbva.com/es/opinion/que-habria-que-tener-en-cuenta-si-se-va-a-regular-la-inteligencia-artificial/
https://www.expansion.com/economia-digital/innovacion/2020/03/01/5e56abf0468aeb681a8b45fd.html
https://www.ccb.org.co/Clusters/Cluster-de-Software-y-TI/Noticias/2017/Septiembre-2017/Como-regular-la-inteligencia-artificial
https://es.euronews.com/2021/04/20/la-primera-propuesta-europea-para-regular-la-inteligencia-artificial

En inglés:
https://link.springer.com/article/10.1007/s00146-019-00920-z
https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence
https://link.springer.com/article/10.1007/s43681-021-00052-5
https://hbr.org/2021/09/ai-regulation-is-coming

koe

#19 si meten el sensacionalismo en esto que es fácil de detectar que no harán en cosas que pilotas menos.
en fin. El que gobierne, debería hacerlo sin hacer este tipo de argucias. Y más si va de ser justos. Etc.

que nos pasa lo mismo de siempre luego. No será por ejemplos, "en capítulos anteriores..."
que el poder es muy goloso.

koe

#19 imagina que la noticia fuera de unas declaraciones sobre "delincuencia" desde un ministro de derechas (imagina el caso que hay muchos)
podías decir lo mismo de la medias verdades y limar importancia a lo tendencioso de quien lo ha formulado.
flaco favor te estarías haciendo.
pues con esto pasa lo mismo.

c

#19 Que lo que quiere decir es que cuando un algoritmo toma una decisión, queremos que aplique los mismos sesgos que aplicaría una persona, pero esto es muy complicado de hacer, especialmente cuando se trata de sesgos injustos.

pip

Necesitaría ejemplos concretos sobre ese sexismo que dice la ministra, para poder opinar con fundamento.

Si, pongamos el caso, una IA tiene en cuenta el sexo para mostrar inicialmente unos u otros productos en una tienda, si esa variable es verdaderamente significativa, no es que la IA sea sexista, es que está bien hecha. Quiero decir: un programador o programadora que ignore la variable del sexo en un conjunto de datos donde el sexo es relevante, estaría simplemente haciendo mal su trabajo, porque su objetivo es que la IA muestre los productos que probablemente interesen más al usuario, sin importar los motivos por los que esa variable está siendo significativa.