Hace 6 años | Por mikeoptiko a youtube.com
Publicado hace 6 años por mikeoptiko a youtube.com

En este vídeo de Computerphile uno de los expertos en Inteligencia Artificial cuyas disquisiciones ya hemos mencionado alguna vez, Rob Miles, explica bien la situación. Algo que dice que nunca se han tomado en serio los expertos en robótica e inteligencia artificial porque… ¡son un planteamiento de ficción para poder escribir novelas! Fuente: http://www.microsiervos.com/archivo/ia/leyes-robotica-asimov-no-funcionan.html

Comentarios

D

No me fio de alguien que se llama Rob.

D

Pues porque lo más probable es que lo hagan militares, y a ellos eso de no matar como que no les mola mucho.
Por otra parte las 3 leyes son sólo un escenario, y además Asimov juega en los huecos.

TocTocToc

¿Porque son 'leyes' que forman parte de una obra de ficción?

JackNorte

Plantear problemas a una maquina que los seres humanos aun no hemos resuelto . Y argumentar por ello que algo no funciona me parece como poco absurdo. Para enseñar a una maquina primero lo tenemos que tener claro si no esta claro sencillamente la maquina no puede decidir, asi de simple se soluciona el problema, un humano tendra que decidir. Como pasa ahora. En unos sitios deciden de una forma u otra dependiendo el dilema. Un ejemplo tan simple como las maquinas de atencion telefonica si tu dilema no tiene respuesta automatica te pasan a un humano.

D

Asimov no lo impuso como una ley universal. Era solo un escenario muy lógico como punto de partida de sus novelas, en las que se dan situaciones en las que no se cumplen esas leyes por diversos motivos. Aun así y sin haber visto el vídeo me fío más de la validez y eficacia de esas 3 leyes que de otras que puedan hacer los inventores actuales.

qwerty22

Estoy de acuerdo con el "no funcionan" pero no con el "no funcionarán nunca".

¿Se podría educar a una persona para que siguiera las tres leyes de la robótica? Es decir, que fuese su filosofía vital y dentro de sus limitaciones de conocimiento de lo que le rodea las siguiese siempre. Si, podrias. Es cierto que esa persona se encontraría ante paradojas morales ante determinadas situaciones, como si mataría a una persona para salvar a 2, etc. Pero se le pueden dar indicaciones morales adicionales sobre lo que creemos que es seguir bien las tres leyes y finalmente dejar lo que no se nos ha ocurrido a la moral de esa persona.

¿Existe alguna limitación física por la que nunca seremos capaces de hacer un robot tan complicado como una persona? No, luego en algún momento seremos capaces de hacer uno que cumpla con las tres leyes de la robótica como lo haría una persona.

Es más, ni siquiera hace falta llegar a esa complejidad. Un perro bien entrenado cumple con las tres leyes de la robótica en lo esencial. Así que bastaría un robot con la capacidad cognitiva de un perro.

D

#6 Quizás lo que planteas sea más bien un mero matiz conceptual, a mi me parece más correcto decir que no funcionarán nunca, pero depende bajo qué compromisos estés dispuesto a aceptar que funcionan. Por ejemplo, ¿las leyes funcionan? no son perfectas, pero en general parece que funcionan de forma tolerable. Tenemos leyes para que la gente no mate, y en general diría que funcionan, pero aún así hay casos excepcionales en los que alguien mata a otros.

Luego está el problema de como conseguir que se cumplan. Si hablamos de una máquina no inteligente entonces el problema es que sea programado con los comportamientos correctos. Lo del perro quizás ejemplifica eso porque un perro no siempre se va a comportar de forma que proteja a un humano, el problema de esas leyes de la robótica es que son algo sumamente interpretativo y que además tiene que ver con prever las consecuencias de tus actos. A mi me parece que no deja de ser un debate filosófico que se ideo para un mundo literario.

No solo tiene que ver con comprender a cabalidad tus acciones sino también con tener un código ético objetivo para cada caso.

sangaroth

Esta bien al plantear los problemas implicitos de defición de conceptos, pero no por ello invalida las leyes en si (como argumento, obviamente son un recurso literario de ciencia-ficción).
En todo caso en vez de hacer categorizaciones booleanas tipo: Humano: Si o No puede existir grados de 'humanidad',
'Forma humana que no respira'...en función de su degradación corporal va perdiendo % de humanidad, si esta caliente (calor propio) es humano 100%, si se tiene información de a que hora a dejado de respirar una funcion lineal que va restando puntos de humano de tal manera que hasta pasadas unas horas en 100% humano y empieza a perder tal attributo a medida que pasan las horas,etc...
Feto... ovulo fecundado => nacimiento....función de humanidad de 0->100%
Mamifero.... en función del grado de similitud otorgar un valor de humanidad respecto otros animales (insectos por ejemplo), de tal manera que maniferos superiores tengan bastante grado de 'humanidad' (como si fuese algo bueno :P) sin llegar a interferir con las otras reglas...

No se, no le veo un problema mayor que cualquier otro relacionado con la IA operativo aunque si hace falta encontrar un modelo que contente a las distintas 'sensibilidades' etico-morales-religiosas

mikeoptiko

#2 es un problema mucho más complejo de lo que parece. Ten en cuenta que apenas se puede definir la vida, como pasar por todos los pasos hasta llegar a "humano". Además, como bien dicen, ¿como definir "herir"?

El concepto es guay para los libros, pero pensad que la respuesta de las tres leyes es, como bien dice, al "problema" de que la inteligencia artificial haga lo que queramos que haga. Si pensáis en el problema en sí, hay maneras de que un robot no pueda hacernos daño mucho más sencillas que meternos en tener que definir cosas complicadísimas, Y lo de que no nos obedezca es algo que me parece absurdo de plantear, la IA siempre está supeditada a nuestra voluntad, por muy parecida a la IA normal el diseñador siempre tiene la posibilidad de controlarlo...