Publicado hace 4 años por alvizlo a blog.consultorartesano.com

La inteligencia artificial de la que se dota a la máquina le transfiere potencialmente la decisión. Pero el asunto se complica porque la ciencia de los datos (el dataísmo del que Yuval Noah Harari en Homo Deus y Byung-Chul Han en Psicopolítica han escrito) se puede enfrentar a situaciones en las que entran en juego no ya hechos objetivos sino implicaciones morales. La máquina, con su capacidad de procesamiento, pudiera tener que decidir si atropello a unas personas o a otras.

Comentarios

Gry

Lo que menor daño produzca al dueño del vehículo sin infringir las normas de circulación para evitar demandas.

D

#6 Sí, es posible. Pero cuando sucedan cosas (muertes) y tiempo más tarde.
Mira lo de los niveles diesel y Volskwagen ¿cuánto tiempo mantuvieron la mentira?

Pacman

#2 deja que te lo resuelva desde el punto de vista del propietario del vehículo.

Me da igual.
me da lo mismo a quien atropelle el coche siempre y cuando me salve a mi. En el caso que algún coche con IA tenga preferencia por salvar a otra cosa que no sea sus usuarios, no compraré ese coche.

D

#3 Tampoco lo vas a saber, porque los que lo fabrican no te lo van a decir.

Pacman

#4 lo mismo el primer día no se sabe, pero hoy en día se acabaría sabiendo

hasta_los_cojones

#2 Puede incluir sesgos morales o no incluirlos.

Si como digo, solo consideras las normas de tráfico, no hay ninguna elección moral a la hora de atropellar a una mujer ciega embarazada y premio nobel de la paz que está cruzando por donde no debería no debería para esquivar a un toxicómano proxeneta que está cruzando por donde se debe.

Pretender programar una inteligencia artificial para que sea capaz de decidir que es mejor atropeyar al toxicómano que a la embarazada es absurdo no solo por cuestiones técnicas, sino también por cuestiones prácticas.

Si los coches autónomos tuvieran esa clase de comportamiento moral, aquellos individuos que sean privilegiados por el sistema podrían cagarse en las normas de tráfico y ocasionar (incluso intencionalmente) accidentes con total tranquilidad.

Si el coche del ejemplo fuese "moral" y la embarazada lo sabe, podría haberse puesto a cruzar por ahí con la única intención de que el coche atropelle al toxicómano. ¿eso es moral?

En resumen. No es necesario incluir cuestiones morales, solo las normas de circulación.

hasta_los_cojones

No hay ninguna implicación moral pues la máquina no entiende lo que es una persona.

Un rayo que te fulmina en medio del campo no es malvado por haber caído sobre ti en vez de sobre un arbusto.

Una ruleta rusa que te vuela la tapa de los sesos a ti, en vez de a tu secuestrador aburrido, no es malvada.

Un coche autónomo que respeta las normas de circulación y evita colisiones atendiendo a la fuerza del impacto y a las normas de circulación no es malvado.

A cambio, si hay una piara de peatones caminando por mitad de la carretera o cruzando por donde no se debe el coche puede aplastarlos a todos para evitar otro peligro, incluso aunque a un ser moral le pueda parecer un peligro menor en comparación.

alvizlo

#1 La diferencia entre el rayo y el coche autónomo es que al coche lo programan personas que pueden incluir sesgos morales a la hora de tomar decisiones en relación a ese "otro peligro" a evitar.