La publicación de que un experimento que pretendía crear una inteligencia artificial capaz de emitir juicios morales ha fracasado,en realidad, el experimento no fue ningún fracaso, fue un éxito, solo que no en el sentido pretendido. Porque las respuestas morales de la máquina fueron racistas y machistas. La razón por la que, según los investigadores, se había producido ese resultado indeseado es el tipo de base de datos en las que la inteligencia artificial buceaba para su aprendizaje: navegaba por foros y conversaciones digitales.
Comentarios
Si los comentarios e idologias de la gente con la que se entrena son nazis sale nazi, normal.
Ya lo dice el refranero aleman "si sentado en la mesa hay un nazi, estas en una mesa de nazis"
Por otra parte, es probable que si a una IA no le pones filtros predefinidos todas salgan supremacistas dado que no hay nada mas "normal" que hacer uso del poder que tienes para conseguir cualquiera de tus objetivos. Controlar el abuso de poder o de posicion de superioridad es un constructo social que el ser humano aun no ha dominado y que el liberalismo fomenta de forma encubierta.
La IA no es racista per se, será el dataset usado para entrenarla.
#5 En realidad es una mala interpretación de los resultados. Una máquina no puede ser racista por sí misma, a menos que se la programe para eso, pero nadie ha hecho tal cosa. Algunos dicen, todo convencidos, que ha sido entrenada con datos racistas, but again, nadie ha hecho tal cosa.
Por poco cuidadoso que seas, te limitas a usar datos reales. Ahí es precisamente donde está el problema. La máquina se traga esos datos tal cual, sin aplicarles ningún sesgo. Una persona no hace esto en ningún caso, una persona aplicará sesgos.
Cuando vemos los resultados que da la máquina, vemos que no coinciden con nuestros sesgos. Como debe ser, digo yo. Otra cosa es que no guste eso.
La única solución posible es identificar nuestros sesgos y programar la máquina con ellos. Tiene la pega de que eso es injusto. Mira por donde.
Imagínate que la IA se mete en Menéame...
#2 aprenderian a ser cinicas... Por naturaleza.
#2 Ya está, no hay sino que leer algunos comentarios.
#7 pues eso ya lo leías en la entradilla sin hacer click, lo tuyo era protestar porque la noticia no te gusta y se acabó.
#12 claro, eso es lo que ponia en mi comentario: noticia mas que repetida. Ahora que si lo tuyo era protestar porque mi comentario no te gustaba, sientete comodo.
#13 ten cuidado que a #12 no le gusta que digan que la noticia esta mas que vista.
¡Sorpresa! Que no hará con las mentes más débiles...
#3 Estos no son los androides que buscamos. Podéis marcharos.
Relacionada Una inteligencia artificial entrenada para emitir juicios morales se vuelve racista y misógina
Una inteligencia artificial entrenada para emitir ...
lavanguardia.com¡Ojo!, son dos artículos distintos de La Vanguardia.
Esto ya es un poco cansino, no? Ya hemos leido cien noticias de IA que se vuelven trolls, racistas y malas personas cuando las entrenan con la basura que hay por internet. Ya es suficiente, no?
#1 Bueno, quizá si lees/ves la noticia...
#4 Gracias por hacermela leer....
#OsAhorroUnClick la maquina no es mala porque sea asi, es que aprende lo que ve y hace lo que le dicen. Como HAL 9000 y otras mas.
#4 Yo la he leído y, más allá de citar películas, no dice casi nada. Probablemente el periodista no quiera estresar nuestros limitados cerebros.
HAL 9000 no es nazi. Podrá ser asesino, psicótico, nazi ... ¡pero de actor porno no tiene nada!
Es que es muy simple, la humanidad es un virus.
#11 Los informáticos no somos auténticas formas de vida. No podemos reproducirnos.