Hay tres elementos básicos en la fórmula matemática para enseñar un código deontológico a las máquinas. Y no se diferencia mucho del cóctel ético que manejamos las personas. Acción, valor y norma conforman esta tríada con la que juegan los investigadores para establecer limitaciones que controlen el comportamiento de las inteligencias artificiales. Para las personas, el valor equivale a una especie de norma social, comúnmente aceptada: sabemos que mentir es una acción moralmente reprobable. Y las normas ayudan a formalizar la idea de valor en
Comentarios
Que aprendan leyendo El País, el ABC, La Razón y El Mundo
#1 pero que paguen para pasar el muro de pago
Que tonteria. La moral y la ética es para lo pobres. No tiene sentido que la apliquen las máquinas.
Es un tema espinoso. Para que sean como los humanos, primero hay que enseñarles unos principios morales inamovibles... y luego a ignorarlos cuando convenga.
Y para cuando ya sean como los humanos, seguirá siendo más barato encontrar un humano para el trabajo.
#3 Sería desastroso si la IA aprendiera a mentir a sabiendas. Ahora mismo lo hace y lo llamamos alucinación. Es un problema que se debe solucionar. La IA debe ser confiable y certera.