Un algoritmo de aprendizaje "ridículamente optimista" es una "completa mierda", dice un experto. SKYNET vigila masivamente la red de teléfonos móviles de Pakistán y después aplica un algoritmo sobre los metadados de 55 millones de personas para clasificar la posibilidad de cada uno de ser terrorista. Entre 2.500 y 4.000 personas han muerto por los ataques de drones norteamericanos en Pakistán a supuestos "terroristas".
1. Estoy cobrando dinero procedente de Emiratos Árabes
2. he hecho grande ingresos en efectivo
3. Mi hermano, desde octubre hasta hoy ha viajado recientemente a Irán, India, Japón, Alemania, Belgica (y lo que le queda)
4. Uso linux
5. Defiendo a reconocidos terroristas titiriteros en meneame
6. Defiendo la libertad de prensa, la libertad de expresión, etc...
Por si las moscas:
Ha sido un placer compartir este rato con vosotros.
Bueno, no hace falta ponerse dramático, vivimos en Europa y aquí no nos matarían sin más, ¿verdad?
#19:
Es apabullantemente terrorífico, inaceptable, una monstruosidad. Aquí un resumen traducido de los párrafos clave (los titulares en negrita son míos):
Como lo hacen: Given the complete set of metadata, SKYNET pieces together people's typical daily routines—who travels together, have shared contacts, stay overnight with friends, visit other countries, or move permanently. Overall, the slides indicate, the NSA machine learning algorithm uses more than 80 different properties to rate people on their terroristiness.
Traducción: Dado el conjunto completo de metadatos [de los teléfonos móviles], skynet construye la rutina típica de la gente: quienes viajan juntos, quienes comparten contactos, quienes se quedan a dormir en casa de los amigos, visitan otros países, o se mueven constantemente. En total, según la información filtrada, el algoritmo con aprendizaje de la NSA usa más de 80 variables diferentes para evaluar la terroristidad de la gente.
Por qué no puede funcionar bien: The NSA evaluates the SKYNET program using a subset of 100,000 randomly selected people (identified by their MSIDN/MSI pairs of their mobile phones), and a a known group of seven terrorists. The NSA then trained the learning algorithm by feeding it six of the terrorists and tasking SKYNET to find the seventh. This data provides the percentages for false positives in the slide above.
"First, there are very few 'known terrorists' to use to train and test the model," Ball said. "If they are using the same records to train the model as they are using to test the model, their assessment of the fit is completely bullshit. The usual practice is to hold some of the data out of the training process so that the test includes records the model has never seen before. Without this step, their classification fit assessment is ridiculously optimistic
Traducción: la NSA evalúa el programa skynet usando un subconjunto de 100.000 personas escogidas al azar (identificadas por sus teléfonos móviles), y un grupo conocido de siete terroristas. La NSA entonces entrenó al algoritmo con los datos de seis de los terroristas, y encargándole que encontrara al séptimo.
"Primero, hay muy pocos 'terroristas conocidos' para poder enseñar y probar el programa", dijo Ball (el analista). "Si usan los mismos registros para entrenar y para probar el modelo, su estimación será una completa mierda. La práctica habitual es dejar parte de los datos fuera del proceso de aprendizaje, de modo que la prueba sea con registros que el modelo no haya visto antes. Sin este paso, su estimación será ridículamente optimista.".
Resultado: 0.008% de falsos positivos. Muy bajo, ¿no? The 0.008 percent false positive rate would be remarkably low for traditional business applications. This kind of rate is acceptable where the consequences are displaying an ad to the wrong person, or charging someone a premium price by accident. However, even 0.008 percent of the Pakistani population still corresponds to 15,000 people potentially being misclassified as "terrorists" and targeted by the military—not to mention innocent bystanders
Traducción: el 0.008% de falsos positivos sería notablemente bajo para las tradicionales aplicaciones de negocios. Esta tasa es aceptable cuando las consecuencias son ponerle a un consumidor un anuncio equivocado, o cobrarle un precio equivocado. Pero el 0.008 de la población pakistaní son todavía 15.000 personas potencialmente mal clasificadas como "terroristas" y puestas como objetivo militar; por no hablar de las víctimas colaterales inocentes.
Las obvias objeciones morales y legales Killing civilians is forbidden by the Geneva Convention, to which the United States is a signatory. Many facts about the SKYNET program remain unknown, however. For instance, is SKYNET a closed loop system, or do analysts review each mobile phone user's profile before condemning them to death based on metadata? Are efforts made to capture these suspected "terrorists" and put them on trial? How can the US government be sure it is not killing innocent people, given the apparent flaws in the machine learning algorithm on which that kill list is based?
Traducción: matar civiles está prohibido por la convención de Ginebra, de la que Estados Unidos es firmante. Pero muchos hechos sobre el programa skynet permanecen ocultos. Por ejemplo, ¿en skynet es todo automático, o hay analistas que revisan cada perfil de teléfono móvil antes de condenarles a muerte en base a sus metadatos? ¿Se les intenta detener y llevarles a jucio? ¿Como puede asegurar el gobierno de Estados Unidos que no está matando inocentes, dados los aparentes fallos en el algoritmo en el que se basa la lista de objetivos?
The leaked NSA slide decks offer strong evidence that thousands of innocent people are being labelled as terrorists; what happens after that, we don't know. We don't have the full picture, nor is the NSA likely to fill in the gaps for us
Traducción: la presentación filtrada de la NSA ofrece fuertes evidencias de que miles de inocentes están siendo identificados como terroristas; lo que pasa después, no lo sabemos. No tenemos la foto completa, ni creemos que la NSA esté dispuesta a contárnosla.
Algorithms increasingly rule our lives. It's a small step from applying SKYNET logic to look for "terrorists" in Pakistan to applying the same logic domestically to look for "drug dealers" or "protesters" or just people who disagree with the state. Killing people "based on metadata," as Hayden said, is easy to ignore when it happens far away in a foreign land. But what happens when SKYNET gets turned on us—assuming it hasn't been already?
Traducción: los algoritmos cada vez más controlan nuestra vida. Solo es un pequeño paso aplicar la lógica que busca "terroristas" en Pakistán y aplicarla en casa para buscar "traficantes de droga", o "activistas", o simplemente gente en desacuerdo con los poderes públicos. Matar gente "basándose en metadatos" es, como dijo Hayden, fácil de ignorar cuando sucede lejos en un país extranjero. Pero ¿qué pasará cuando skynet se vuelva hacia nosotros... suponiendo que no lo haya hecho ya.
Lo dicho: es terrorífico. No es una frase hecha, es terrorífico de verdad.
#6:
Es terrorífico. En el pasado creíamos que la vigilancia del estado estaría ejercida por personas que tenían que examinar todas las comunicaciones, pero hemos pasado a que un algoritmo decida la muerte de una persona en la otra esquina del mundo basándose en probabilidades. Peor aún, según indica la noticia, toda medida que una persona use para evadir la vigilancia la pone el algoritmo automáticamente en la lista de sospechosos.
Hemos pasado ya de largo las predicciones de muchos distópicos del siglo pasado.
#26:
WE KILL PEOPLE BASED ON METADATA. (la primera democracia del mundo)
Estamos viviendo ya en una distopía, y sólo va ir a peor.
#12:
#11 Puede tener sentido usar algo parecido para detectar casos que investigar de forma manual.
Usarlo para disparar primero y preguntar después no preguntar, es una locura impropia de una democracia.
#8:
#7 Aquí un dron cantaría mucho, pero ten cuidado si alguien te ofrece café con polonio.
1. Estoy cobrando dinero procedente de Emiratos Árabes
2. he hecho grande ingresos en efectivo
3. Mi hermano, desde octubre hasta hoy ha viajado recientemente a Irán, India, Japón, Alemania, Belgica (y lo que le queda)
4. Uso linux
5. Defiendo a reconocidos terroristas titiriteros en meneame
6. Defiendo la libertad de prensa, la libertad de expresión, etc...
Por si las moscas:
Ha sido un placer compartir este rato con vosotros.
Bueno, no hace falta ponerse dramático, vivimos en Europa y aquí no nos matarían sin más, ¿verdad?
Es apabullantemente terrorífico, inaceptable, una monstruosidad. Aquí un resumen traducido de los párrafos clave (los titulares en negrita son míos):
Como lo hacen: Given the complete set of metadata, SKYNET pieces together people's typical daily routines—who travels together, have shared contacts, stay overnight with friends, visit other countries, or move permanently. Overall, the slides indicate, the NSA machine learning algorithm uses more than 80 different properties to rate people on their terroristiness.
Traducción: Dado el conjunto completo de metadatos [de los teléfonos móviles], skynet construye la rutina típica de la gente: quienes viajan juntos, quienes comparten contactos, quienes se quedan a dormir en casa de los amigos, visitan otros países, o se mueven constantemente. En total, según la información filtrada, el algoritmo con aprendizaje de la NSA usa más de 80 variables diferentes para evaluar la terroristidad de la gente.
Por qué no puede funcionar bien: The NSA evaluates the SKYNET program using a subset of 100,000 randomly selected people (identified by their MSIDN/MSI pairs of their mobile phones), and a a known group of seven terrorists. The NSA then trained the learning algorithm by feeding it six of the terrorists and tasking SKYNET to find the seventh. This data provides the percentages for false positives in the slide above.
"First, there are very few 'known terrorists' to use to train and test the model," Ball said. "If they are using the same records to train the model as they are using to test the model, their assessment of the fit is completely bullshit. The usual practice is to hold some of the data out of the training process so that the test includes records the model has never seen before. Without this step, their classification fit assessment is ridiculously optimistic
Traducción: la NSA evalúa el programa skynet usando un subconjunto de 100.000 personas escogidas al azar (identificadas por sus teléfonos móviles), y un grupo conocido de siete terroristas. La NSA entonces entrenó al algoritmo con los datos de seis de los terroristas, y encargándole que encontrara al séptimo.
"Primero, hay muy pocos 'terroristas conocidos' para poder enseñar y probar el programa", dijo Ball (el analista). "Si usan los mismos registros para entrenar y para probar el modelo, su estimación será una completa mierda. La práctica habitual es dejar parte de los datos fuera del proceso de aprendizaje, de modo que la prueba sea con registros que el modelo no haya visto antes. Sin este paso, su estimación será ridículamente optimista.".
Resultado: 0.008% de falsos positivos. Muy bajo, ¿no? The 0.008 percent false positive rate would be remarkably low for traditional business applications. This kind of rate is acceptable where the consequences are displaying an ad to the wrong person, or charging someone a premium price by accident. However, even 0.008 percent of the Pakistani population still corresponds to 15,000 people potentially being misclassified as "terrorists" and targeted by the military—not to mention innocent bystanders
Traducción: el 0.008% de falsos positivos sería notablemente bajo para las tradicionales aplicaciones de negocios. Esta tasa es aceptable cuando las consecuencias son ponerle a un consumidor un anuncio equivocado, o cobrarle un precio equivocado. Pero el 0.008 de la población pakistaní son todavía 15.000 personas potencialmente mal clasificadas como "terroristas" y puestas como objetivo militar; por no hablar de las víctimas colaterales inocentes.
Las obvias objeciones morales y legales Killing civilians is forbidden by the Geneva Convention, to which the United States is a signatory. Many facts about the SKYNET program remain unknown, however. For instance, is SKYNET a closed loop system, or do analysts review each mobile phone user's profile before condemning them to death based on metadata? Are efforts made to capture these suspected "terrorists" and put them on trial? How can the US government be sure it is not killing innocent people, given the apparent flaws in the machine learning algorithm on which that kill list is based?
Traducción: matar civiles está prohibido por la convención de Ginebra, de la que Estados Unidos es firmante. Pero muchos hechos sobre el programa skynet permanecen ocultos. Por ejemplo, ¿en skynet es todo automático, o hay analistas que revisan cada perfil de teléfono móvil antes de condenarles a muerte en base a sus metadatos? ¿Se les intenta detener y llevarles a jucio? ¿Como puede asegurar el gobierno de Estados Unidos que no está matando inocentes, dados los aparentes fallos en el algoritmo en el que se basa la lista de objetivos?
The leaked NSA slide decks offer strong evidence that thousands of innocent people are being labelled as terrorists; what happens after that, we don't know. We don't have the full picture, nor is the NSA likely to fill in the gaps for us
Traducción: la presentación filtrada de la NSA ofrece fuertes evidencias de que miles de inocentes están siendo identificados como terroristas; lo que pasa después, no lo sabemos. No tenemos la foto completa, ni creemos que la NSA esté dispuesta a contárnosla.
Algorithms increasingly rule our lives. It's a small step from applying SKYNET logic to look for "terrorists" in Pakistan to applying the same logic domestically to look for "drug dealers" or "protesters" or just people who disagree with the state. Killing people "based on metadata," as Hayden said, is easy to ignore when it happens far away in a foreign land. But what happens when SKYNET gets turned on us—assuming it hasn't been already?
Traducción: los algoritmos cada vez más controlan nuestra vida. Solo es un pequeño paso aplicar la lógica que busca "terroristas" en Pakistán y aplicarla en casa para buscar "traficantes de droga", o "activistas", o simplemente gente en desacuerdo con los poderes públicos. Matar gente "basándose en metadatos" es, como dijo Hayden, fácil de ignorar cuando sucede lejos en un país extranjero. Pero ¿qué pasará cuando skynet se vuelva hacia nosotros... suponiendo que no lo haya hecho ya.
Lo dicho: es terrorífico. No es una frase hecha, es terrorífico de verdad.
#19 Cualquiera que sepa algo de Aprendizaje automático sabe que no se pueden usar los casos de entrenamiento para confirmar la calidad del aprendizaje. Son datos "sucios". Si está hecho así a parte de ser criminal el objetivo, está hecho con el puto culo. Y con esos casos de aprendizaje me parece difícil conseguir una tasa de acierto del 99.992%.
Es terrorífico. En el pasado creíamos que la vigilancia del estado estaría ejercida por personas que tenían que examinar todas las comunicaciones, pero hemos pasado a que un algoritmo decida la muerte de una persona en la otra esquina del mundo basándose en probabilidades. Peor aún, según indica la noticia, toda medida que una persona use para evadir la vigilancia la pone el algoritmo automáticamente en la lista de sospechosos.
Hemos pasado ya de largo las predicciones de muchos distópicos del siglo pasado.
#6 La gente en Pakistán on son personas. Y hay muchos. Hay de sobra.
Por eso es más eficiente dejar toda la cadena de acontecimientos en manos de una inteligencia artificial, desde la elaboración de listas de sospechosos hasta pasar las órdenes de ejcuciçon a un dron autónomo.
Así no hay margen para el error con confusiones como la tuya, que podría tener cualquier otro humano al piensar que lo que hay al otro lado del mundo también son personas.
Si esto es cierto es una de las noticias más estupidamente aterradoras de los últimos años. Estarían practicamente disparando a voleo. Si se ha sido vecino de un terrorista ya te pueden estar marcando con un misil.
#42 Es un poco como el maleus maleficarum de la inquisicion:
Si la torturamos salvajemente y admite que es una bruja, entonces es obviamente una bruja.
Si la torturamos salvajemente y no admite que es una bruja, es obviamente porque usa sus poderes de bruja para resistir.
Este es uno de los motivos de que el programa que haría algo muy similar en Europa INDECT esté paralizado. El mero hecho de dar un falso positivo ya es suficiente para cancelar un programa de este tipo o debería serlo.
Esto de matar a la gente por ordenador no es nuevo.
Hubo un virus que usaba los PCs infectados para enviar porno infantil. Los afectados no tenían ni idea, pero los jueces no se lo creyeron. Miles de personas fueron condenadas en USA a penas de prisión bastante fuertes. La gente juzgada perdieron como mínimo sus trabajos. Hubo bastantes suicidos.
#22 Pos si, yo recuerdo un caso que hasta el FBI testificó a su favor, diciendo que tal como estaba almacenado el contenido era casi imposible que el lo hubiera descargado voluntariamente o algo del estilo. Pero pensaba que solo era uno o dos casos.
¿Me estáis diciendo que usan minería de datos cómo único criterio para bombardear civiles? No me lo creo. Es demasiado gordo como para que no sea portada en el mundo entero.
#36 si hacen bien su trabajo (que eso es mucho suponer) podria ser una parte de la criba inicial.
Sí lo hacen mal o quieren recortar gastos entonces nadie revisará nada.
La persona que decide si se hace de una manera u otra no tiene que rendir cuentas ante casi nadie, su trabajo es secreto y sus jefes son potenciales psicópatas.
Lo que haran no es matarlos sino vigilarlos mucho mas allá de los metadatos. ¿Un juez validaria una vigilancia mas exhaustiva en base al resultado del algoritmo?
¿Un juez si el pais está en estado de emergencia como en Francia en este momento?
¿En estado de emergencia o alerta no necesitan un juez?
Pinchado de las llamadas con conversaciones completas, correos electronicos y mensajes completos, movimientos completos, micros en su casa en su trabajo, seguimientos, ...
¿Las primeras opciones cuanto refinarian la busqueda y reducirian la muestra? (sin lo de los pinchazos en casa y trabajo que requeriría mas personal, solo con los datos que pueden recopilar en remoto)
Bueno, en remoto les podrían meter un troyanazo gubernamental como una casa y este serviria de micro. Despues deberian rastrear todos los moviles que han estado cerca, no solo los de las llamadas de los metadatos.
¿De 15.000 que es el 0,008 % de los pakistanies a cuanto son capaces de reducir la muestra con mayor investigación exhaustiva?
¿Han empezado ya a despedir analistas y agentes en Langley? Claramente no se necesitan tantos, se necesita gente en el terreno para verificar los falsos positivos de forma exhaustiva.
¿Otros usos aparte de encontrar terroristas?
¿Detectar psicopatas y potenciales riesgos entre el personal de la nsa, departamento de estado, personal gubernamental, generales, coroneles, políticos, ...?
¿Detectar inutiles integrales en puestos de responsabilidad?
¿Corruptos entre politicos, funcionarios y empresarios corruptores?
¿Corruptos en el sector privado?
¿Consejos y juntas directivas de corporaciones fortune 500?
¿Para hacienda o el irs los que estarán evadiendo en Caiman o Suiza?
¿Los narcotraficantes?
¿Traficantes de armas?
¿Banqueros e inversores inutiles y terroristas que pueden montar entre todos una estafa subprime?
...
Claro que tambien se podrian desarrollar un monton de medidas de contrainteligencia para esto.
Inventarse personas o testaferros que no son realmente terroristas, y quizas ellos tampoco saben que les están metiendo en un tinglado y hacer que suban sus indicadores de probabilidad en metadatos. (ataque de inyección de metadatos)
Me recuerda al asunto de "Red de mentiras" https://es.wikipedia.org/wiki/Red_de_mentiras en la que meten a uno que no tenia nada que ver con los terroristas, como implicado en base a unos correos electronicos con metadatos falsificados, unas reuniones que acuerdan en los lugares donde se producian atentados, unas llamadas.
>apagando móvil y desconectandole la batería...
>hecho
>borrando discos duros sumergiendolos en agua, para posteriormente meterlos en un bidon con ácido y luego meterles fuego, junto con el móvil...
>hecho
>cambiando cirugía facial...
>hecho
Me imagino al pobre comercial que hace un barrido de contactos, suministrados por su empresa, que previamente ha comprado el 'mailing' de algún suministrador y, ¡zasca! le cae el fin del mundo en la cabeza. La hostia
Lo que significa que pueden matar a quien les de la gana, solo tienen que introducir después su nombre en los registros ¿quién lo va a saber? de todos modos es alto secreto y al fin y al cabo en Oriente Medio pueden hacer y hacen lo que quieren sin sufrir consecuencia alguna.
Comentarios
Santo cielo...
1. Estoy cobrando dinero procedente de Emiratos Árabes
2. he hecho grande ingresos en efectivo
3. Mi hermano, desde octubre hasta hoy ha viajado recientemente a Irán, India, Japón, Alemania, Belgica (y lo que le queda)
4. Uso linux
5. Defiendo a reconocidos terroristas titiriteros en meneame
6. Defiendo la libertad de prensa, la libertad de expresión, etc...
Por si las moscas:
Ha sido un placer compartir este rato con vosotros.
Bueno, no hace falta ponerse dramático, vivimos en Europa y aquí no nos matarían sin más, ¿verdad?
#7 Aquí un dron cantaría mucho, pero ten cuidado si alguien te ofrece café con polonio.
#7 Si fueras paquistaní te diría que ni se te ocurra apagar el móvil.
#7 Hasta siempre@serioussam, ha sido un placer conocerte.
#7 https://es.wikipedia.org/wiki/Operaci%C3%B3n_Gladio Esto fue hace no mucho...
#7 normal que te investiguen.
Tío, vete de meneame que nos van a acabar pillando a todos
#7 Ellos noooooooooooo, aqui ya tenemos nuestros propios fascistas.
#7 Procesando información...
#7 malditos terroristas de ISIS a sueldo. Cuanto os pagan por venir a comentar?
#41 este mes no he cobrado aún, porque Braintree está investigando si mi actividad es fraudulenta.
Aviso:
No es buena idea utilizar el panel de administración para hacer cargos a la tarjeta de un cliente, ni aunque el cliente esté de acuerdo.
Parece sospechoso, así que lo investigan (lo que significa tener los fondos retenidos).
Volviendo al tema de la pregunta, a mí lo que me convenció fue lo de las vírgenes en el paraíso.
#7 Lleva puesto el gorrito de aluminio todo el rato. No te lo quites ni para dormir. Si te matan, ¿puedo quedarme con tu karma?
#44 me gustaría que me enterrasen con mis bienes más preciados, incluido mi karma...
En una pirámide a ser posible.
Pero supongo que como sospechoso de terrorismo me tirarán a un matorral a que me coman los lobos, así que sí.
Quédate con mi karma.
#7 Si vas por la calle y notas un pinchazo hazte cargo de en que mes estamos...
Es apabullantemente terrorífico, inaceptable, una monstruosidad. Aquí un resumen traducido de los párrafos clave (los titulares en negrita son míos):
Como lo hacen:
Given the complete set of metadata, SKYNET pieces together people's typical daily routines—who travels together, have shared contacts, stay overnight with friends, visit other countries, or move permanently. Overall, the slides indicate, the NSA machine learning algorithm uses more than 80 different properties to rate people on their terroristiness.
Traducción: Dado el conjunto completo de metadatos [de los teléfonos móviles], skynet construye la rutina típica de la gente: quienes viajan juntos, quienes comparten contactos, quienes se quedan a dormir en casa de los amigos, visitan otros países, o se mueven constantemente. En total, según la información filtrada, el algoritmo con aprendizaje de la NSA usa más de 80 variables diferentes para evaluar la terroristidad de la gente.
Por qué no puede funcionar bien:
The NSA evaluates the SKYNET program using a subset of 100,000 randomly selected people (identified by their MSIDN/MSI pairs of their mobile phones), and a a known group of seven terrorists. The NSA then trained the learning algorithm by feeding it six of the terrorists and tasking SKYNET to find the seventh. This data provides the percentages for false positives in the slide above.
"First, there are very few 'known terrorists' to use to train and test the model," Ball said. "If they are using the same records to train the model as they are using to test the model, their assessment of the fit is completely bullshit. The usual practice is to hold some of the data out of the training process so that the test includes records the model has never seen before. Without this step, their classification fit assessment is ridiculously optimistic
Traducción: la NSA evalúa el programa skynet usando un subconjunto de 100.000 personas escogidas al azar (identificadas por sus teléfonos móviles), y un grupo conocido de siete terroristas. La NSA entonces entrenó al algoritmo con los datos de seis de los terroristas, y encargándole que encontrara al séptimo.
"Primero, hay muy pocos 'terroristas conocidos' para poder enseñar y probar el programa", dijo Ball (el analista). "Si usan los mismos registros para entrenar y para probar el modelo, su estimación será una completa mierda. La práctica habitual es dejar parte de los datos fuera del proceso de aprendizaje, de modo que la prueba sea con registros que el modelo no haya visto antes. Sin este paso, su estimación será ridículamente optimista.".
Resultado: 0.008% de falsos positivos. Muy bajo, ¿no?
The 0.008 percent false positive rate would be remarkably low for traditional business applications. This kind of rate is acceptable where the consequences are displaying an ad to the wrong person, or charging someone a premium price by accident. However, even 0.008 percent of the Pakistani population still corresponds to 15,000 people potentially being misclassified as "terrorists" and targeted by the military—not to mention innocent bystanders
Traducción: el 0.008% de falsos positivos sería notablemente bajo para las tradicionales aplicaciones de negocios. Esta tasa es aceptable cuando las consecuencias son ponerle a un consumidor un anuncio equivocado, o cobrarle un precio equivocado. Pero el 0.008 de la población pakistaní son todavía 15.000 personas potencialmente mal clasificadas como "terroristas" y puestas como objetivo militar; por no hablar de las víctimas colaterales inocentes.
Las obvias objeciones morales y legales
Killing civilians is forbidden by the Geneva Convention, to which the United States is a signatory. Many facts about the SKYNET program remain unknown, however. For instance, is SKYNET a closed loop system, or do analysts review each mobile phone user's profile before condemning them to death based on metadata? Are efforts made to capture these suspected "terrorists" and put them on trial? How can the US government be sure it is not killing innocent people, given the apparent flaws in the machine learning algorithm on which that kill list is based?
Traducción: matar civiles está prohibido por la convención de Ginebra, de la que Estados Unidos es firmante. Pero muchos hechos sobre el programa skynet permanecen ocultos. Por ejemplo, ¿en skynet es todo automático, o hay analistas que revisan cada perfil de teléfono móvil antes de condenarles a muerte en base a sus metadatos? ¿Se les intenta detener y llevarles a jucio? ¿Como puede asegurar el gobierno de Estados Unidos que no está matando inocentes, dados los aparentes fallos en el algoritmo en el que se basa la lista de objetivos?
The leaked NSA slide decks offer strong evidence that thousands of innocent people are being labelled as terrorists; what happens after that, we don't know. We don't have the full picture, nor is the NSA likely to fill in the gaps for us
Traducción: la presentación filtrada de la NSA ofrece fuertes evidencias de que miles de inocentes están siendo identificados como terroristas; lo que pasa después, no lo sabemos. No tenemos la foto completa, ni creemos que la NSA esté dispuesta a contárnosla.
Algorithms increasingly rule our lives. It's a small step from applying SKYNET logic to look for "terrorists" in Pakistan to applying the same logic domestically to look for "drug dealers" or "protesters" or just people who disagree with the state. Killing people "based on metadata," as Hayden said, is easy to ignore when it happens far away in a foreign land. But what happens when SKYNET gets turned on us—assuming it hasn't been already?
Traducción: los algoritmos cada vez más controlan nuestra vida. Solo es un pequeño paso aplicar la lógica que busca "terroristas" en Pakistán y aplicarla en casa para buscar "traficantes de droga", o "activistas", o simplemente gente en desacuerdo con los poderes públicos. Matar gente "basándose en metadatos" es, como dijo Hayden, fácil de ignorar cuando sucede lejos en un país extranjero. Pero ¿qué pasará cuando skynet se vuelva hacia nosotros... suponiendo que no lo haya hecho ya.
Lo dicho: es terrorífico. No es una frase hecha, es terrorífico de verdad.
#13 El mejor y más útil comentario de este hilo de momento es el #19, depablicius
Corred a leerlo y temblad.
#19 Cualquiera que sepa algo de Aprendizaje automático sabe que no se pueden usar los casos de entrenamiento para confirmar la calidad del aprendizaje. Son datos "sucios". Si está hecho así a parte de ser criminal el objetivo, está hecho con el puto culo. Y con esos casos de aprendizaje me parece difícil conseguir una tasa de acierto del 99.992%.
#31 decir que tu método tiene una tasa de aciertos positivos del 100%, con sólo 7 muestras positivas también tiene cojones.
Es terrorífico. En el pasado creíamos que la vigilancia del estado estaría ejercida por personas que tenían que examinar todas las comunicaciones, pero hemos pasado a que un algoritmo decida la muerte de una persona en la otra esquina del mundo basándose en probabilidades. Peor aún, según indica la noticia, toda medida que una persona use para evadir la vigilancia la pone el algoritmo automáticamente en la lista de sospechosos.
Hemos pasado ya de largo las predicciones de muchos distópicos del siglo pasado.
#6 La verdad es que para eso me fio más de un ordenador que de un humano
#29 llamame loco, pero yo me fio mas de un juez para eso de las penas de muerte.
#6 La gente en Pakistán on son personas. Y hay muchos. Hay de sobra.
Por eso es más eficiente dejar toda la cadena de acontecimientos en manos de una inteligencia artificial, desde la elaboración de listas de sospechosos hasta pasar las órdenes de ejcuciçon a un dron autónomo.
Así no hay margen para el error con confusiones como la tuya, que podría tener cualquier otro humano al piensar que lo que hay al otro lado del mundo también son personas.
Os lo dije!
#4 Pues ríete pero sí que lo
dijodijeronCuando Sarah Connor intentó destruir el sistema GPS a hachazos [Eng]
Cuando Sarah Connor intentó destruir el sistema GP...
theatlantic.com#14 Lo sé, también advertí en aquel meneo cual Casandra... cuando-sarah-connor-intento-destruir-sistema-gps-hachazos-eng/c04#c-4
Cuando Sarah Connor intentó destruir el sistema GP...
theatlantic.comWE KILL PEOPLE BASED ON METADATA. (la primera democracia del mundo)
Estamos viviendo ya en una distopía, y sólo va ir a peor.
Este es el código fuente de ese algoritmo:
Si esto es cierto es una de las noticias más estupidamente aterradoras de los últimos años. Estarían practicamente disparando a voleo. Si se ha sido vecino de un terrorista ya te pueden estar marcando con un misil.
#10 “Todos los que corren son vietcong. Todos los que se paran son vietcongs. Comunistas obedientes”.
#42 Es un poco como el maleus maleficarum de la inquisicion:
Si la torturamos salvajemente y admite que es una bruja, entonces es obviamente una bruja.
Si la torturamos salvajemente y no admite que es una bruja, es obviamente porque usa sus poderes de bruja para resistir.
Esto es coña no? Vaya trolls que hay en la Nasa para ponerle skynet
#34 No se si me parece mas increible la noticia en si o el nombre...
Este es uno de los motivos de que el programa que haría algo muy similar en Europa INDECT esté paralizado. El mero hecho de dar un falso positivo ya es suficiente para cancelar un programa de este tipo o debería serlo.
Salu2
#11 Puede tener sentido usar algo parecido para detectar casos que investigar de forma manual.
Usarlo para disparar primero y
preguntar despuésno preguntar, es una locura impropia de una democracia.¿Alguien ha visto El Capitán América 2: Soldado de Invierno?
Pues se ha hecho realidad con esto. Hydra es la NSA.
#24 este es su nuevo logo
#24 Estaba pensando justo en lo mismo
Heil NSA!
#24 Casi que mejor esta otra... http://www.filmaffinity.com/es/film194920.html
Esto es de chiste A todos los niveles.
#1 De película, a mi gracia no me hace la verdad
#1 Por desgracia no es un chiste, es una triste realidad, la mayor organización terrorista la CIA, el mayor pais terrorista EEUU.
#1 No se que te hace tanta gracia
#47 el nombre del programa
No tengo tiempo de leerla ahora, asi que...
Volveré.
Esto de matar a la gente por ordenador no es nuevo.
Hubo un virus que usaba los PCs infectados para enviar porno infantil. Los afectados no tenían ni idea, pero los jueces no se lo creyeron. Miles de personas fueron condenadas en USA a penas de prisión bastante fuertes. La gente juzgada perdieron como mínimo sus trabajos. Hubo bastantes suicidos.
#20 ¿Qué virus es ese?
Que lo que has contado ha pasado pero no me suena lo de los miles de afectados.
#22 Pos si, yo recuerdo un caso que hasta el FBI testificó a su favor, diciendo que tal como estaba almacenado el contenido era casi imposible que el lo hubiera descargado voluntariamente o algo del estilo. Pero pensaba que solo era uno o dos casos.
#32 Es que pasar ha pasado, pero no como lo ha contado el otro.
Que es lo que he dicho antes.
Todos los antivirus dan falsos positivos. Es normal.
¿Me estáis diciendo que usan minería de datos cómo único criterio para bombardear civiles? No me lo creo. Es demasiado gordo como para que no sea portada en el mundo entero.
#36 si hacen bien su trabajo (que eso es mucho suponer) podria ser una parte de la criba inicial.
Sí lo hacen mal o quieren recortar gastos entonces nadie revisará nada.
La persona que decide si se hace de una manera u otra no tiene que rendir cuentas ante casi nadie, su trabajo es secreto y sus jefes son potenciales psicópatas.
Mola.
#36 Pues es lo que hay. Es a lo que hemos llegado en esta sociedad de psicópatas y gilipollas aborregados
O sea que el argumento de Capitán América: El soldado de invierno, sobre el algoritmo Insight no es tan fantasioso que digamos.
Te lo diiiiiiiiiiiije
Te lo dije tres veces.
Te lo dije Salvation
Te lo dije Genysis
Y tú erre que erre.
Me la guardo para leerla con tranquilidad, porque he alucinado un poco con el párrafo de entrada.
Lo que haran no es matarlos sino vigilarlos mucho mas allá de los metadatos. ¿Un juez validaria una vigilancia mas exhaustiva en base al resultado del algoritmo?
¿Un juez si el pais está en estado de emergencia como en Francia en este momento?
¿En estado de emergencia o alerta no necesitan un juez?
Pinchado de las llamadas con conversaciones completas, correos electronicos y mensajes completos, movimientos completos, micros en su casa en su trabajo, seguimientos, ...
¿Las primeras opciones cuanto refinarian la busqueda y reducirian la muestra? (sin lo de los pinchazos en casa y trabajo que requeriría mas personal, solo con los datos que pueden recopilar en remoto)
Bueno, en remoto les podrían meter un troyanazo gubernamental como una casa y este serviria de micro. Despues deberian rastrear todos los moviles que han estado cerca, no solo los de las llamadas de los metadatos.
¿De 15.000 que es el 0,008 % de los pakistanies a cuanto son capaces de reducir la muestra con mayor investigación exhaustiva?
¿Han empezado ya a despedir analistas y agentes en Langley? Claramente no se necesitan tantos, se necesita gente en el terreno para verificar los falsos positivos de forma exhaustiva.
¿Otros usos aparte de encontrar terroristas?
¿Detectar psicopatas y potenciales riesgos entre el personal de la nsa, departamento de estado, personal gubernamental, generales, coroneles, políticos, ...?
¿Detectar inutiles integrales en puestos de responsabilidad?
¿Corruptos entre politicos, funcionarios y empresarios corruptores?
¿Corruptos en el sector privado?
¿Consejos y juntas directivas de corporaciones fortune 500?
¿Para hacienda o el irs los que estarán evadiendo en Caiman o Suiza?
¿Los narcotraficantes?
¿Traficantes de armas?
¿Banqueros e inversores inutiles y terroristas que pueden montar entre todos una estafa subprime?
...
Claro que tambien se podrian desarrollar un monton de medidas de contrainteligencia para esto.
Inventarse personas o testaferros que no son realmente terroristas, y quizas ellos tampoco saben que les están metiendo en un tinglado y hacer que suban sus indicadores de probabilidad en metadatos. (ataque de inyección de metadatos)
Me recuerda al asunto de "Red de mentiras" https://es.wikipedia.org/wiki/Red_de_mentiras en la que meten a uno que no tenia nada que ver con los terroristas, como implicado en base a unos correos electronicos con metadatos falsificados, unas reuniones que acuerdan en los lugares donde se producian atentados, unas llamadas.
Tambien tenemos los casos tipo George Kaplan en "Con la muerte en los talones" https://es.wikipedia.org/wiki/North_by_Northwest y unas cuantas con tematica similar que ha habido desde entonces.
Incluso "La red 2" https://en.wikipedia.org/wiki/The_Net_2.0 (malilla pero bueno encaja)
"Cycle beating" a estos sistemas pensando en los metadatos e informaciones que usarian.
Un algoritmo consigue reducir la delincuencia en Los Ángeles/c35#c-35
En fin, contrainteligencia.
Snowden: 'El GCHQ puede controlar cualquier móvil con Smurf Suite'/c50#c-50
>apagando móvil y desconectandole la batería...
>hecho
>borrando discos duros sumergiendolos en agua, para posteriormente meterlos en un bidon con ácido y luego meterles fuego, junto con el móvil...
>hecho
>cambiando cirugía facial...
>hecho
Skynet encuéntrame ahora
Me imagino al pobre comercial que hace un barrido de contactos, suministrados por su empresa, que previamente ha comprado el 'mailing' de algún suministrador y, ¡zasca! le cae el fin del mundo en la cabeza. La hostia
Lo que significa que pueden matar a quien les de la gana, solo tienen que introducir después su nombre en los registros ¿quién lo va a saber? de todos modos es alto secreto y al fin y al cabo en Oriente Medio pueden hacer y hacen lo que quieren sin sufrir consecuencia alguna.
También podría estar mandándoles ramos de flores.
¿No había más nombres?