Hace 6 meses | Por jelzimoñac a elpais.com
Publicado hace 6 meses por jelzimoñac a elpais.com

Hay tres elementos básicos en la fórmula matemática para enseñar un código deontológico a las máquinas. Y no se diferencia mucho del cóctel ético que manejamos las personas. Acción, valor y norma conforman esta tríada con la que juegan los investigadores para establecer limitaciones que controlen el comportamiento de las inteligencias artificiales. Para las personas, el valor equivale a una especie de norma social, comúnmente aceptada: sabemos que mentir es una acción moralmente reprobable. Y las normas ayudan a formalizar la idea de valor en

Comentarios

manbobi

Que aprendan leyendo El País, el ABC, La Razón y El Mundo

OniNoNeko_Levossian

#1 pero que paguen para pasar el muro de pago

d

Que tonteria. La moral y la ética es para lo pobres. No tiene sentido que la apliquen las máquinas.

Brill

Es un tema espinoso. Para que sean como los humanos, primero hay que enseñarles unos principios morales inamovibles... y luego a ignorarlos cuando convenga.

Y para cuando ya sean como los humanos, seguirá siendo más barato encontrar un humano para el trabajo.

aironman

#3 Sería desastroso si la IA aprendiera a mentir a sabiendas. Ahora mismo lo hace y lo llamamos alucinación. Es un problema que se debe solucionar. La IA debe ser confiable y certera.