Hace 7 años | Por yoshi_90 a lamarea.com
Publicado hace 7 años por yoshi_90 a lamarea.com

Las delegaciones de las dos mayores potencias militares muestran reticencias acerca de la creación de un grupo de expertos gubernamentales para establecer la hoja de ruta que impida el desarrollo y despliegue de los sistemas letales autónomos.

Comentarios

D

#19 no tiene por qué, depende del uso que le vayas a dar a esa IA, si la usas como malware para robar datos y le programas la necesidad de sobrevivir en el sistema a toda costa puede ser impredecible.

D

#11 y #13 Una máquina no entiendo por qué motivo va a querer conquistar el mundo, se supone que son máquinas inteligentes, conquistar el mundo y ser el dictador número uno es cosa de humanos pirados, no de máquinas.

Una máquina no querría nada por sí misma, ni con ni sin inteligencia artificial.

D

#16 si se le programa autoconservacion puede ver al ser humano como una amenaza potencial, sería un ataque preventivo

D

#18 Eso es absurdo, desde mi punto de vista vamos, que no soy un experto en Skynets.

D

Es que después de ver Terminator, cualquiera se mete! lol

D

#1 aunque no venga a cuento te diré una cosa, si una inteligencia artificial deduce que lo más eficiente es matar humanos dudo que se dedique a exterminarlos por la fuerza y dudo que quiera matarlos a todos, cuando es mucho más sencillo joder los sistemas de un laboratorio virológico y entorpecer el desarrollo de la vacuna sin ser detctada hasta que quedan unos pocos humanos con los qu epuede comenzar a reconstruir una sociedad..

paleociencia

#2 joder, que miedo me acabas de dar

D

#3 es igual que con unataque alielígena, es mucho más eficiente liberar cepas virológicas agresivas y ultra contagiosas que diezmen mucho a la sociedad que desplegar un ejercito de tierra y tener que invertir muchos más recursos con el peligro de terminar perdiendo la guerra. Si nosotros ya tenemos esa tecnología pero no tenemos una contraparte igual de efectiva quiere decir que cualquier otro la puede tener y aprovecharse de ello.

sotillo

#2 Pero si no tienen que hacer nada, con dejarnos solos ya verás, lo que tu propones acelera un poco el tema pero a las máquinas el tiempo humano ni fu ni fa

D

#2 Por experiencia en otras pandemias, el ser humano tiene demasiada variabilidad. De 300.000 millones sobrevivirían muchos millones.

D

#7 pues tiras otra, para la naturaleza es complicado porque depende del azar, pero en este caso no.

garnok

#9 #7 Ahora me han dado ganas de jugar al Plague Inc

TetraFreak

#7 esos millones estarían dispersos, la mayoría sin entrenamiento ni recursos...

D

#10 El ser humano es un superviviente nato. No es tan fácil acabar con nosotros. Y para en hacer la puñeta, tenemos todos un máster genético.

D

#11 si eres una máquina que quiere conquistar el mundo no hace falta extnguirnos, sólo diezmarnos mucho y ya. Si eres una civilización extreterrestre igual, diezmas a la humanidad hasta que estén muy débiles y lugo haces lo que quieras con el planeta.

TetraFreak

#11 pues ya te digo que mi master genetico es una basura.
Todo ser vivo es un superviviente. Y eso no quita que el homo sapiens se haya follado a unos cuantos.

Robus

Me suena como si las potencias se uniesen a principios del siglo XX para prohibir la aviación militar... roll

a

Mira tú, para sacar locos con bombas atadas al cuerpo y despiadados de toda indole hay que comerles el coco, dedicarles tiempo etc, aqui con un hackeo en un plis tienes exterminadores de humanos sin rechistar y a tiempo completo.

D

Al Ordo Mechanicun le preocupan estas noticias. Las maquinas pensantes son una herejía contra el Dios-Maquina.

th3b1gb0ss

Lo que se invierte en tecnología militar... muchos de los inventos de hoy en día vienen de ahí, tras los robots asesinos vendrán los sexbots lol