Publicado hace 6 años por Calipodelimon a puentesdigitales.com

Estamos pensando en programar la moral, cuando ésta no es una ciencia, no son unas reglas concretas y claras. Si nosotros mismos no conocemos las respuestas correctas, ¿para qué molestarnos en programarlas? Cuando programemos coches autónomos, ¿estaremos programando homicidios premeditados?

Comentarios

A

Falso dilema... cualquier algoritmo trataría de evitar daños o minimizarlos. Los conductores humanos en muchas ocasiones actúan poniéndose en riesgo adrede y, cuando se ven en una situación límite, tratando de salvar el pellejo ante una situación que probablemente ellos mismos hayan provocado. Con la conducción autónoma, los accidentes con víctimas serían marginales porque se cumplirían las normas de forma habitual y porque los vehículos reaccionarían más rápido y mejor que los humanos ante imprevistos.

Azucena1980

Me veo fragonetas atropellando gente en zonas turísticas controladas por Skynet.

Nereu

Puuuuffff, pajeos (sin mucho sentido) de la cultura blog/mediática techie (y lo que nos queda con esto de la IA).
¿Cuantas veces en la historia de la conducción humana se ha dado esa situación de tener que atropellar a 1 o a 5 siendo imposible ninguna otra opción?
La respuesta simple es que si te dan a elegir entre matar a tu hija o a tu hijo, deberías preguntarte por qué estas en esa situación puesto que el desencadenante ha pasado antes. Pero el ingeniero de google ya lo explica:

Lo primero que hay que tener en cuenta es que todavía no nos hemos encontrado con ese problema. Nunca nos hemos encontrado en una situación en la que haya habido que elegir entre atropellar a un bebé o a una ancianita. E incluso si tuviéramos que enfrentarnos a esa situación probablemente significaría que alguien ha cometido un error unos segundos antes. Así que en el papel de «ingeniero moral» que entro a trabajar en la oficina mi objetivo es impedir que llegue a producirse esa situación. Eso significaría que la habríamos cagado antes.
Y aunque le quite intriga al asunto la respuesta es casi siempre pisar el freno a fondo. Normalmente tenemos más información sobre lo que sucede justo enfrente del vehículo –por cómo funcionan los sensores– y el control del coche también es mucho más preciso frenando que intentando esquivar algo.
Así que tendría que tratarse de una situación realmente extrema para que tuviéramos que llegar a plantear otra respuesta.

t

#4 Pues a mí se me ocurren un montón de casos que ahora no tienen sentido (porque una persona no tiene capacidad para afrontarlos) pero que con un coche autónomo sí:

- Típico niño que sale corriendo desde detrás de un camión mientras el coche va a 50, y que ha sido imposible detectar hasta que sale. Puedes atropellarlo, o esquivarlo y tener un choque frontal con el del otro carril.
- Lo mismo, pero yendo a 90 por carretera, y que un señor que se supone está haciendo un stop para incorporarse no te ve y sale antes de tiempo. Obviamente tu coche confía en que el señor del stop hace el stop, y cuando se lo salta estamos en las mismas: chocar con él, o chocar con otros.

Que es menos probable de cómo se pintan las cosas, vale. Pero se puede dar el caso, y no vale escurrir el bulto, hay que decidir qué se hace.

Libertual

Solo hay una cosa peor que intentar definir la ética o la moral: No hacerlo.

Nathaniel.Maris

Ya lo dijo Will Smith en Yo, robot. "11% es más que suficiente"