Hace 7 años | Por sede a euribor.com.es
Publicado hace 7 años por sede a euribor.com.es

El otro día vi la película Ex machina, que básicamente va de una programador muy listo que tiene que convivir una semana con un robot de apariencia humana y evaluar si durante ese tiempo se ha comportado como un robot o como un humano.

Comentarios

davokhin

Cuanto antes aceptemos que una vez llegados a la singularidad y los robots se hagan más inteligentes que nosotros, pasaremos a ser sus mascotas, major para todos.

Uzer

#1 Si tienen "inquietudes" como nosotros (Explorar y aprender) se largarán rápido y nos dejarán tirados, no lo dudo

ElPerroDeLosCinco

#2 Y si además de inquietudes, tienen sentido de la responsabilidad, cuando abandonen la Tierra, la bombardearán hasta que no quede un humano. No vaya a ser que nos propaguemos por el espacio como una plaga.

rojo_separatista

#8, a lo mejor este comentario que has escrito sea leído por una IA dentro de 50 años y deduzca que sí, es lo que debe hacer.

ElPerroDeLosCinco

#12 Debemos asumir como un hecho, que cuando exista una IA con conexión a internet, leerá todas las noticias de Menéame y todos nuestros comentarios.

ur_quan_master

#21 seguramente vas tarde... tinfoil

ElPerroDeLosCinco

#22 Si hay una IA leyendo nuestros comentarios como parte de su proceso de aprendizaje, probablemente estemos retrasando gravemente su desarrollo intelectual.

aunotrovago

#2 #4 en un futuro, gracias a la implementación de algoritmos obtenidos de menéame y otros sitios, se le adjudicará atracción sexual a los robots y su inteligencia quedará a la par de la humana, al menos por un tiempo.

Dovlado

#1 No ocurrirá eso porque tampoco quedarán humanos puros. Seremos cyborgs, humanos ampliados o como queramos llamarlos.

Del Smartphone y el Smartwatch se pasará al implante, el exoesqueleto, nanobots manteniéndonos en buen estado y demás. Al menos así imagino yo la evolución de la sociedad de la información.

rojo_separatista

Hombre si empieza diciendo la chorrada de que "En el siglo XXI los humanos tendrán que convivir con la primera inteligencia artificial extraterrestre en la historia de la humanidad", es difícil tomárselo en serio. Si es una IA creada en la tierra no será extraterrestre, digo yo.

N

#9 supongo que querría decir extrahumánica, pero no sé si está en la RAE. Era por exagerar y llamar la atención.

rojo_separatista

#11, bastaba con decir "una inteligencia superior distinta a la humana".

sorrillo

#6 La creencia no sería un objetivo si no una consecuencia, no es necesario construirlos para que crean en nada si no para que tengan capacidad de sacar sus propias conclusiones y equivocarse, ambas cualidades muy útiles.

#16 Sacar conclusiones (y el equivocarse) no forman parte de tener una creencia. Una creencia es una idea fija que se da por cierta sin importar nada más, anulando la capacidad de raciocinio cuando hubiera contradicción. Un creyente racionaliza la realidad alrededor de sus creencias.

sorrillo

#17 Sacar conclusiones (y el equivocarse) no forman parte de tener una creencia.

Claro que lo es, una creencia no es más que una conclusión que en ocasiones es errónea y no corregida.

#18 De ninguna de las maneras una creencia es una conclusión, por mucho que pudiera originarse de una. De las conclusiones se sale, de las creencias no.

sorrillo

#25 Por lo tanto basta con que pueda sacar conclusiones para que exista el riesgo que no salga de una de ellas y pase a la categoría de creencia.

Y como sacar conclusiones es útil y no existe ningún proceso infalible para salir de las conclusiones de las que habría que salir entonces la creencia puede ser una consecuencia de algo útil como la capacidad de sacar conclusiones y equivocarse.

#26 Hay mucho debate sobre la posible utilidad de las creencias. Para algo tienen que servir, ya sea personalmente o socialmente, aunque a nadie se le haya ocurrido el qué. Vale, todavía.

Una creencia es algo sobre lo que no se reflexiona. Corrijo: sobre lo que el creyente no tiene la posibilidad de reflexionar. Específicamente, y esto se ha medido, cuando interviene una creencia el área del cerebro encargada de procesar la lógica permanece inactiva. Es por esto que no se puede salir de una creencia.

sorrillo

#27 Evolutivamente es un proceso muy eficiente.

Hay que recordar que el cerebro no ha evolucionado para recabar con fidelidad la realidad, si no que su evolución ha estado filtrada por la supervivencia y es en esa clave que se deben interpretar sus procesos. Si la mentira y el engaño han supuesto una mayor capacidad para sobrevivir y reproducirse esos serán los procesos que tengan mayor presencia.

Y es obvio que la mentira y el engaño pueden ser muy útiles para sobrevivir y reproducirse, y si esa mentira y ese engaño son en forma de autoengaño eso perfecciona el sistema, ya que el autor correrá menos riesgo de ser pillado al ser cuestionado sobre ello.

Los robots y la inteligencia artificial también sufrirán su propio proceso de selección natural, quizá en forma equiparable al de los animales de compañía en su relación con el hombre o quizá en forma equiparable al hombre teniendo como mascota al ser humano.

#28 El cerebro se monta la eficiencia con algo que podemos llamar automatismos. Se trata de que después de haber llegado a una conclusión sobre algún problema, este resultado se almacena y se reusa cuando acontecen cosas similares. hay muchos tipos de automatismos, para todas las necesidades.

Reconocerás a un automatismo porque se ejecuta de forma inconsciente (por debajo de la consciencia). No te das cuenta de que lo estás haciendo a no ser que te fijes.
Por el contrario es imposible observar las propias creencias.

La mentira y el engaño como cosa útil.... No el autoengaño, por supuesto, sino su uso social, el poder engañar a los demás, Desde este punto de vista se considera que las creencias son un mecanismo que permite que la gente sea engañada y se supone que eso tiene una utilidad para el grupo. Un ejemplo podría ser hacer que la gente vaya a la guerra. Es una de las hipótesis que hay, aunque se le pueden encontrar muchos peros.

Es notable aqui la tendencia que tiene la evolución humana a preservar la variedad. ¿por qué hay zurdos u homosexuales? Eso no sirve individualmente (es una cruz), tiene que tener una utilidad social. Vuelvo al tema: La susceptibilidad humana a las creencias varia muchísimo de un indivíduo a otro. Hay gente que nunca se va a creer nada, y hay gente que necesita desesperadamente creer en algo, lo que sea. Y esto es así para algo.

sorrillo

#30 Veo que empezamos a coincidir en ver la creencia como una consecuencia de la capacidad de sacar conclusiones y los automatismos, y lo eficiente que eso es.

Respecto al engaño y autoengaño no hay que olvidar que existen otros aspectos como la empatía y el remordimiento, alguien que engañe puede ser un psicópata y no sufrir remordimientos, para ese supuesto el autoengaño efectivamente no aporta nada favorable. Por contra para alguien que sí tenga empatía y con ello remordimientos el autoengaño puede ser una herramienta muy útil para aprovechar las ventajas evolutivas de la mentira y el engaño, ya que obtiene los beneficios sin sufrir los perjuicios.

Respecto a los zurdos y homosexuales dependiendo de la época y civilización han sido características mortales pero no es menos cierto que son en gran medida ocultables, un zurdo si sabe que eso puede matarle por ser considerado hijo del demonio puede conscientemente aparentar ser diestro, así como sus padres cuando le educan. Si una característica no supone la muerte entonces permite que se perpetúe a próximas generaciones. Y este es otro ejemplo de como la mentira y el engaño pueden facilitar la supervivencia, y el autoengaño en casos de homosexuales con riesgo de muerte de ser reconocidos puede ayudarles a superar mejor la situación (aunque en este caso desconozco cuán difícil es realmente autoengañarse sobre esa característica).

Dovlado

#23 Si bueno, mas que citarlos por su complejidad lo hacía como ejemplos de ese miedo atávico en la cultura humana.

En lo de incluir o no una ética, me refería desde una óptica antropocéntrica. Es decir, entendidos como máquinas o herramientas bajo nuestro control. No es que se deba temer a la máquina, pero quizás si deba temerse a los que las crean o mantienen

Y por otra parte, en cuánto a confiar en la autogestión de un sistema complejo yo no sería muy candoroso, cualquier sistema complejo que sea creación humana tiene sistemas de seguridad (Desde un cuadro eléctrico, pasando por un vehículo, hasta una central nuclear) No creo que fuera muy juicioso darle libre albedrío.

Aunque como apunté en otro comentario, yo creo que cuando se plantee este dilema en la práctica, probablemente los seres humanos tengamos tantos elementos artificiales integrados que no estará muy clara la frontera entre humano y máquina. Porque no creo que tardemos mucho en empezar a implantarnos cosas

toposan

¿Creerán los robots en dios?

g

#5 Dudo mucho que un robot logre nunca desarrollar creencias. ¿para qué los iban a construir con defectos a propósito? Si quieres tenerlos controlados les pones un mando inalámbrico.

toposan

#6 ¿Todas las personas piensan que creer en dios es un defecto? Es más, ¿no pedirán determinados sectores, que se dote a los robots de un "alma" (según las creencias de cada uno)? Si no, para simplificar, ¿tendrán los robots conciencia?

g

#7 Todas las personas que piensan, piensan que no hay seres mágicos. Aparte hay personas que creen que sí los hay, pero ese es precisamente el defecto que no tiene sentido replicar.

Pueden dotar a los robots de alma ahora mismo. Un conjuro basta.

La consciencia es una ilusión.

La conciencia es el nivel de debug en el logging.

Dovlado

Lo mas interesante de la película son los dilemas morales relacionados con pretender darle sentimientos y pulsiones a una máquina pero al mismo tiempo usarla como una posesión, un juguete o el muñeco de pin pan pun con el que pagar tus taras y frustraciones.

Lo ideal sería que la programación de cualquier máquina que posea inteligencia artificial, incluyese una ética. En ese sentido, las tres leyes de la robótica de Asimov serían un buen ejemplo pero es claro que todos los opresores del mundo pretenderán construir robots psicópatas a su imagen y semejanza...y es difícil que lo podamos impedir.

La cuestión también es saber si una inteligencia artificial puede trascender a su propia programación. A mí me parece improbable por no decir imposible. De hecho, en Matrix, la superioridad de Neo sobre los "Los Agentes" es que estos no pueden trascender la programación basada en reglas de Matrix para igualar las capacidades de Neo.

Ejemplos de inteligencias artificiales que bajo un dilema moral actúan de forma psicópata que es un miedo presente en muchas obras culturales, empezando por el HAl9000 de "2001 Una Odisea en el Espacio", pasando por WOPR de "Juegos de Guerra", Skynet y los Terminator hasta las máquinas de Matrix pero también están los ordenadores "bondadosos" como Robby the Robot de "Unforgiven Planet", Data de "Stark Trek la nueva generación", R. Daneel Olivaw de la saga de los Robots de Asimov o el proverbial Albert de "Pórtico" de Frederik Pohl.

Para caso paradójico los robots de "En un lugar llamado Tierra" de Jordi Sierra i Fabra

Uzer

#20 incluir algo preconcebido en un sistema inteligente ya es una contradicción de la ética.
Bajo mi punto de vista, las leyes de la robótica solo son por el miedo que tenemos a lo que nos puedan hacer, son muy humanas, asumimos que serán malas y tenemos que limitarlas, en lugar de que sean ellas mismas lo que es bueno o malo.
Rios de tinta sobre estos temas y los problemas éticos, morales, etc...
Yo estoy a favor de que tengan un sistema de leyes (Como el de las 3, lo de la 0 es un exceso ya), pero no termino de verlo ético (Si es realmente inteligente, quiero decir)
Pero, un par de apuntes:
HAl9000 No es un psicópata, tiene miedo a morir, y si tiene que matar para vivir, mata (No es como AM de No tengo boca, que es inteligente e hija de puta)
WOPR No es inteligente, es un programa bastante simple, en la memoria colectiva se le humaniza por que "habla", por lo del nombre y la historia del hijo de Falken, que trabajaba en sistemas de inteligencia artificial, pero WOPR está lejos de ser una IA, es un sistema bastante básico (No llega ni a entender la diferencia entre una simulación y conectar los misiles intercontinentales...)

D

El problema de esa peli fue humanizar una máquina con forma humana y ponerte en la trayectoria de su cuchillo.

Esa máquina sólo es un programa.

B

Me gusto mas Her (http://www.filmaffinity.com/es/film889720.html); es mas realista.

g

La solución correcta a estos dilemas morales es dejar que lo decidan los robots.