Hace 1 mes | Por walk_kindly_sho... a 972mag.com
Publicado hace 1 mes por walk_kindly_shout a 972mag.com

El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos de asesinato, utilizando un sistema de selección de objetivos mediante inteligencia artificial con escasa supervisión humana y una política permisiva con las bajas, según revelan +972 y Local Call.

Comentarios

w

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

Durante las primeras etapas de la guerra, el ejército dio su aprobación general para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito para comprobar a fondo por qué la máquina hizo esas elecciones o para examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de "sello de goma" para las decisiones de la máquina, añadiendo que, normalmente, sólo dedicaban personalmente unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender era un hombre. Y ello a pesar de saber que el sistema comete lo que se consideran "errores" en aproximadamente el 10 por ciento de los casos, y de que se sabe que ocasionalmente marca a personas que sólo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto.

l

Esto de la IA en el ejercito es doble win, a la vez requiere menos personal y tiene menor tiempo de respuesta y a la vez te sirve como excusa "no hay culpables humanos de tal o cual evento, lo decidió la IA que aún no es perfecta".

Porque skynet estaba pillado…

w

El resultado, como atestiguaron las fuentes, es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

"No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o participaban en una actividad militar", dijo A., un oficial de inteligencia, a +972 y Local Call. "Al contrario, las IDF los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está construido para buscarlos en estas situaciones".

w

En una medida sin precedentes, según dos de las fuentes, el ejército decidió también durante las primeras semanas de la guerra que, por cada agente subalterno de Hamás marcado por Lavender, estaba permitido matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún "daño colateral" durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

La siguiente investigación está organizada según las seis etapas cronológicas de la producción de objetivos altamente automatizada del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la propia máquina Lavender, que marcó a decenas de miles de palestinos utilizando IA. En segundo lugar, revelamos el sistema "¿Dónde está papá?", que rastreaba a estos objetivos y señalaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas "tontas" para atacar estos hogares.

w

En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos cómo los programas informáticos automatizados calculaban de forma inexacta la cantidad de no combatientes que había en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una casa, normalmente por la noche, el objetivo individual a veces no estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.

capitan__nemo

"Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos."

Encaja con los 33000 asesinatos selectivos que llevan.

w

La máquina Lavender se une a otro sistema de IA, "The Gospel", sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas radica en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas, y las incluye en una lista negra.

Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, conocidos comúnmente como bombas "tontas" (en contraste con las bombas de precisión "inteligentes"), que pueden destruir edificios enteros encima de sus ocupantes y causar importantes bajas. "No quieres malgastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de "cientos" de domicilios particulares de presuntos agentes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras como "daños colaterales."

otama

Gracias por la traducción.

La verdad es que revuelve el estómago la falta de la más mínima humanidad de esta gente...

w

#10 va a sonar a topicazo, pero esa desconexión que muestran, esa frialdad quirúrgica, me recuerda un montón a los nazis.

x

el fue el informático del siglo XXI

Cam_avm_39

Muy fuerte y horrible. Ahora entiendo cómo han podido mandar tantas bombas y matar a tantos inocentes.
Asumen matar a 10 civiles para matar a 1 miliciano.
Cómo pueden ser tan miserables?

ur_quan_master

Lavanda ... de hijos de pxta que están hechos.