Hace 15 años | Por tocameroque a navegante2.elmundo.es
Publicado hace 15 años por tocameroque a navegante2.elmundo.es

La Universidad de Bristol ha creado un sistema que permite a uno de sus robots-Jules-de David Hanson, experto en robótica, copiar las expresiones de quien se pone frente a él.Con 34 motores instalados bajo la piel Jules puede llegar a ser increíblemente convincente. Su truco más famoso es copiar las expresiones de actores y personas que ve en los vídeos y puede hacerlo a gran velocidad. Se puede llegar a pensar que tiene sentimientos olvidando su origen.Rel.: Robot Jules nos muestra sus razones para destruir la humanidad [ENG]
Hace 15 años | Por AutumnAutist a engadget.com
Publicado hace 15 años por AutumnAutist
a engadget.com

Además de no ducharse, los investigadores en robótica tienen un buen sentido de humor, sino mirad lo [...]

Comentarios

sleep_timer

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

D

#2, hay diferencia entre deber y poder, un robot no puede dañar a un ser humano.

y te ha faltado la ley 0

X

Hay juegos de lógica con las leyes de Asimov y todo:

1. Eres un robot, y un árbol va a caer encima de un niño que está jugando al otro lado de la calle, pero hay un guardia de tráfico con una señal de STOP que te impide cruzar, ¿qué harías?

2. … pero si además te das cuenta de que el árbol va a caerte encima a ti tambén y te va a aplastar, incluso antes de que puedas llegar a salvar al niño, ¿qué harías?

vía microsiervos: http://www.microsiervos.com/archivo/juegos-y-diversion/juegos-logica-leyes-robotica.html

sleep_timer

#4 La Ley Zero no era perfecta, la elaboraron R. Daneel Olivaw y R. Giskard Reventlov, pero cuando Giskard tuvo que matar a un ser humano para salvar a la humanidad, su cerebro positrónico quedó bloqueado para siempre.

tocameroque

#2 Las leyes de la robótica de Asimov. Fascinante.

tocameroque

No es dupe, la noticia relacionada no es al mismo vídeo ni hace énfasis en la base de ésta noticia: La humanidad de los robots, un tema fascinante al que Asimov dedicó innumerables novelas.

D

-- contiene algún spoiler --

#6, la ley 0, el mayor problema que tenia es que no "venia de fabrica", sino que los robots que la tenian la habian "aprendido", por eso Giskard quedó bloqueado, ademas, #7, el problema no era solamente definir humanidad, tambien saber a largo termino si estabas tomando la decisión correcta, por eso R. Daneel, mas adelante ayudó a H. Seldon a desarrollar la Psicohistoria, y mas adelante a ¿Travis? (no recuerdo su nombre) para que pueda llegar a una decision sobre Fundaciones o Galaxia.

edito: Con lo de "venir de fabrica" me refiero a que los cerebros positronicos estaban diseñados con las tres leyes, no programados.

edito2: el robot tiene la obligación de intentar salvar al humano, no importa las probabilidades de no conseguirlo, un robot solamente calculara las posibilidades en caso de tener elegir entre varios humanos para salvar.

n00b

#6 el problema es definir "humanidad"

#5 Si el árbol me mata antes de salvar al niño, el niño ya puede darse por muerto y al morir yo es posible que impida salvar a otro humano que me pueda necesitar en un futuro, así que no lo intentaría salvar.