Hace 4 años | Por meritonciokin a lavanguardia.com
Publicado hace 4 años por meritonciokin a lavanguardia.com

La empresa de robótica Boston Dynamics por fin va a comercializar uno de sus robots, muy populares por los espectaculares vídeos que difunden en Youtube de sus prototipos. Se trata del modelo Spot, un robot con forma de perro sin cabeza que puede ser personalizado por las empresas o gobiernos que lo adquieran. Entre las tareas que Boston Dinamycs señala para este autómata están las de seguridad.

Comentarios

sorrillo

Sí existen leyes que los regulan, por que la regulación se hace para proteger los derechos de las personas, y éstos no cambian por que aparezca nueva tecnología.

Todas las leyes que ya teníamos antes de la existencia de los robots siguen vigentes, siguen aplicándose.

ElTioPaco

#2 ya, pero las leyes también regulan principios de seguridad a la hora del desarrollo, y o bien puedes legislar de forma preventiva o aceptar el vacío legal.

Ahora mismo tienes megapatinetes eléctricos con sillín que son un puto ciclomotor, pero que como no están regulados pueden ir por la acera y sin matricula, cuando un ciclomotor no puede.

Mis derechos no han cambiado, pero la aparición de este producto si ha puesto mi vida más en riesgo.

Con este artículo pasa lo mismo, el desarrollo de estas tecnologías va más avanzado que su legislación, así que hay infinitos puntos grises que explotar y que pueden poner en riesgo vidas.

En vez de ir a saco a "ser el primero" esta gente debería sentarse y poner encima de la mesa líneas rojas, tanto fabricantes como políticos.

D

ojalá me asesine la freidora

D

#10 Ya veis que los gobiernos piden a facebook, whatsapp, ... puertas traseras para poder acceder. Lo mismo harán con cualquier robot, aunque sea el de cocina. Iban también a querer poder acceder a la información que éste recopile (ejemplo claro: alexa).

No creo que sea difícil hacer lo que tú dices. No lo veo un problema técnico (aunque seguro que en la realidad puede llegar a ser muy complejo a la hora de definir qué es o no el poner en riesgo la vida de una persona). Seguramente lo que pasará pensando en lo más sencillo, es que el software no dejará al robot hacer cosas obvias, pero puede que se den casos más enrevesados en los que sí pueda poner en riesgo la vida de una persona (ej: los coches autónomos)

Eri

#11 Correcto, el ser humano es así y el mismo Assimov desarrolla el tema en una novela, cuando, una serie de robts ,de imagínate que escala de desarrollo y perfección, se reúnen y tienen debates, precisamente sobre eso, e incluso se organizan por ideologías en función del "criterio" de cada sector de opinión. Pero todo esto venía porque se comentaba en la noticia, que aún no se había pensado en eso, a la hora de desarrollar las IA.

Darknihil

¿No les meten las leyes de Asimov?

j

¡Implementación de las 3 leyes de la robótica de Asimov ya!

1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

D

#6 #8 Leyes de Asimov? Vais de culo! Si un ejército compra robots asesinos, son precisamente para matar gente como una de sus principales tareas. Matar, destruir cosas, torturar, ...

Eri

#9 Evidentemente, pero mi comentario se centraba en la cuestión de que no había aún leyes o software al respecto.

D

y con baterías de mierda, que no se les olvide

strike5000

Si yo disparo una pistola y ese disparo mata a alguien, el culpable soy yo, aunque no le haya puesto un dedo encima.
Si yo programo un robot para que ataque a alguien, el culpable seré yo, aunque no le haya puesto un dedo encima.
Si yo programo una IA dándole la capacidad de decidir si ataca a alguien o no, en caso de que ataque el culpable seré yo, dado que la IA no tiene personalidad y soy yo quien la ha programado.

Eri

Las 3 Leyes de la robótica ya las ideó Isaac Asimov hace muchos años y, hoy por hoy, no han sido mejoradas, de forma que no hay más que trasladarlas al software, a saber:
1- Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
2- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.