Hace 2 años | Por dmeijide a lavanguardia.com
Publicado hace 2 años por dmeijide a lavanguardia.com

La publicación de que un experimento que pretendía crear una inteligencia artificial capaz de emitir juicios morales ha fracasado,en realidad, el experimento no fue ningún fracaso, fue un éxito, solo que no en el sentido pretendido. Porque las respuestas morales de la máquina fueron racistas y machistas. La razón por la que, según los investigadores, se había producido ese resultado indeseado es el tipo de base de datos en las que la inteligencia artificial buceaba para su aprendizaje: navegaba por foros y conversaciones digitales.

Comentarios

zentropia

La IA no es racista per se, será el dataset usado para entrenarla.

a

#5 En realidad es una mala interpretación de los resultados. Una máquina no puede ser racista por sí misma, a menos que se la programe para eso, pero nadie ha hecho tal cosa. Algunos dicen, todo convencidos, que ha sido entrenada con datos racistas, but again, nadie ha hecho tal cosa.

Por poco cuidadoso que seas, te limitas a usar datos reales. Ahí es precisamente donde está el problema. La máquina se traga esos datos tal cual, sin aplicarles ningún sesgo. Una persona no hace esto en ningún caso, una persona aplicará sesgos.

Cuando vemos los resultados que da la máquina, vemos que no coinciden con nuestros sesgos. Como debe ser, digo yo. Otra cosa es que no guste eso.

La única solución posible es identificar nuestros sesgos y programar la máquina con ellos. Tiene la pega de que eso es injusto. Mira por donde.

parabola

Imagínate que la IA se mete en Menéame...

Baal

#2 aprenderian a ser cinicas... Por naturaleza.

xyria

#2 Ya está, no hay sino que leer algunos comentarios.

panchobes

#7 pues eso ya lo leías en la entradilla sin hacer click, lo tuyo era protestar porque la noticia no te gusta y se acabó.

D

#12 claro, eso es lo que ponia en mi comentario: noticia mas que repetida. Ahora que si lo tuyo era protestar porque mi comentario no te gustaba, sientete comodo.

D

#13 ten cuidado que a #12 no le gusta que digan que la noticia esta mas que vista.

D

¡Sorpresa! Que no hará con las mentes más débiles...

g

#3 Estos no son los androides que buscamos. Podéis marcharos.

D

Esto ya es un poco cansino, no? Ya hemos leido cien noticias de IA que se vuelven trolls, racistas y malas personas cuando las entrenan con la basura que hay por internet. Ya es suficiente, no?

D

#4 Gracias por hacermela leer....

#OsAhorroUnClick la maquina no es mala porque sea asi, es que aprende lo que ve y hace lo que le dicen. Como HAL 9000 y otras mas.

g

#4 Yo la he leído y, más allá de citar películas, no dice casi nada. Probablemente el periodista no quiera estresar nuestros limitados cerebros.

g

HAL 9000 no es nazi. Podrá ser asesino, psicótico, nazi ... ¡pero de actor porno no tiene nada!

Putin.es.tu.papa

Es que es muy simple, la humanidad es un virus.

g

#11 Los informáticos no somos auténticas formas de vida. No podemos reproducirnos.