top of page

Gaza: una masacre planificada con Inteligencia Artificial

Cómo funciona "Lavanda", el sistema informático que utiliza Israel para atacar en la Franja de Gaza.



Por Telma Luzzani


Con luz verde de los Estados Unidos, las Fuerzas de Defensa de Israel (FDI) decidieron experimentar con los palestinos y utilizar Inteligencia Artificial (IA) para bombardeos y asesinatos masivos en la Franja de Gaza.


El sistema utilizado, denominado “Lavanda” (Lavender), procesa, a gran velocidad, una gigantesca cantidad de datos sobre los 2.300.000 de palestinos que viven en Gaza; los clasifica de 1 a 100 y prioriza como “blanco” a bombardear a los que -según los algoritmos de aprendizaje automático- estarían relacionados con Hamas o la Yihad Islámica. Está comprobado que la máquina falla y ya marcó miles de personas que no tienen nada que ver con las milicias armadas.


Para Lavanda, las personas a asesinar están a su vez divididos en “objetivos humanos” (comandantes) y “objetivos basura” (soldados). Sobre estos últimos, las FDI usan únicamente misiles no guiados (conocidos como “bombas tontas” en contra posición a los misiles de precisión o “inteligentes”) que pueden destruir edificios enteros y, por lo tanto, ocasiona una enorme cantidad de muertos.


Aunque esto es horroroso, no es lo peor. Hay por lo menos dos elementos más que incluyen a estos experimentos de IA como delitos de terrorismo de Estado y crímenes de lesa humanidad.


1) Los ataques masivos contra palestinos están automatizados, es decir, no hay supervisión humana (ni cargos de conciencia). Los oficiales israelíes fueron autorizados a no chequear la información que provee la IA ni analizar en qué se basan las computadoras para preparar sus listas negras.


2) Las personas señaladas por Lavanda no son atacadas durante sus actividades militares sino cuando están en sus hogares, generalmente de noche y con toda su familia. Esta parte del sistema denominado “¿Dónde está papá?” avisa al ejército cuando el objetivo entra a su casa y bombardea todo el edificio residencial, provocando la muerte del militante y de otras decenas de personas, los cínicamente llamados “daños colaterales”.


“Todo es estadístico, todo está ordenado”, confesó uno de los militares israelíes implicados con Lavanda. Por cada miliciano raso marcado por la máquina está permitido matar hasta 15 o 20 civiles. En el caso de un alto cargo de Hamas, añadió la fuente, se autoriza la muerte de más de 100 civiles por cada comandante.


La fábrica de matar


La investigación sobre Lavanda fue realizada por el periodista, militante pacifista y cineasta israelí, Yuval Abraham, quien publicó en el medio israelí “+972 Magazine - Local Call”, dos impactantes investigaciones sobre esta arma siniestra basada en algoritmos: “Una fábrica de asesinatos en masa” y “Lavender: la máquina de IA que dirige los bombardeos de Israel en Gaza”. Estos artículos deberían presentarse en la Corte Internacional de Justicia para juzgar las acciones decididas por el gobierno de Benjamin Netanyahu.


Abraham entrevistó a seis agentes de inteligencia y militares israelíes que usaron, en la actual guerra en Gaza, la máquina de IA. En las guerras anteriores –dijo un espía a Abraham- como se trataba de una forma “especialmente brutal” de matar a alguien, los objetivos humanos se marcaban con mucho cuidado. Se bombardeaban únicamente altos mandos militares. “Un oficial debía comprobar que la persona era efectivamente un miembro de la cúpula militar de Hamás, averiguar dónde vivía, su información de contacto, etcétera. En aquel entonces, la lista de objetivos era de unas pocas decenas y el personal de inteligencia podía encargarse individualmente del trabajo.”


Pero en esta nueva etapa en Gaza todo se “flexibilizó”. Antes las listas tenían 50 objetivos al año; ahora 100 por día porque comenzaron a incluirse miles de sospechosos de rango inferior. Como los oficiales no daban abasto, el ejército israelí decidió apoyarse en el software automatizado y la IA y descartar el juicio del personal humano. “En su punto álgido, el sistema logró generar 37.000 familias como potenciales blancos”, aseguró un entrevistado por Abraham.


“Una fuente me aseguró que el personal humano ‘servía como sello de goma para aprobar los bombardeos, pero las decisiones las tomaba la máquina. Tratábamos las indicaciones de Lavanda como si fueran decisiones humanas. Le dedicábamos personalmente unos 20 segundos’. Esto se hizo a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10% de los casos y de que, en ocasiones, marca a personas que no tienen ninguna conexión con grupos militantes”, escribió el periodista israelí.


Un oficial superior que Abraham nombra, en su investigación, como “B” se explayó sobre su experiencia. “A las 5 de la mañana, llegaba la Fuerza Aérea y bombardeaba todas las casas que habíamos marcado. Eliminamos a miles de personas. No los revisábamos uno a uno: pusimos todo en sistemas automatizados. Bombardeábamos al objetivo y a su edificio. Todo era estadístico, todo estaba ordenado.”


“Me sorprendió mucho que nos pidieran que bombardeáramos todo un edificio para matar a un soldado raso cuya importancia en los combates era baja”, dijo una fuente. “A esos objetivos los apodé ‘objetivos basura’. Aun así, me parecía más ético esto que cuando bombardeamos sólo por disuasión”. Otro entrevistado citado por Abraham como “C” admitió: “Para esos casos usamos “bombas tontas”. Más baratas. No conviene desperdiciar bombas caras en gente sin importancia; es muy costoso para el país y hay escasez”.


También las FDI –como hizo el Pentágono en Vietnam- mide el desempeño de su tropa y los resultados de la guerra por la cantidad de personas asesinadas, el siniestro “body count”. “En un día sin objetivos, usábamos para atacar un criterio más amplio”, confesó “B”. “Nos presionaban constantemente: ‘¡Tráiganos más objetivos!’. Nos gritaban mucho. Con la presión constante de generar más blancos, acabábamos con [la vida de] nuestros objetivos muy rápidamente”.


Con criterio de libre mercado, un jerarca de la División Administrativa de Objetivos de las FDI equipara esta matanza en serie con una fábrica. “Preparamos los blancos automáticamente y trabajamos siguiendo una lista. En realidad, es como una fábrica. Trabajamos rápido y no hay tiempo para ahondar mucho en el objetivo. Se nos juzga de acuerdo con la cantidad de objetivos que conseguimos generar”.


Esto explica el altísimo número de civiles que no participan en la lucha, pero que fueron aniquilados por los ataques aéreos de Israel. Ya hay cerca de 35.000 muertos, 75% de ellos mujeres y niños. Cinco fuentes diferentes confirmaron al periodista israelí que los servicios de inteligencia de su país conocen de antemano el número de civiles que pueden morir en un ataque a una residencia particular, y son fichados como “daños colaterales”.


¿Quién es el doctor Frankenstein?


Después una investigación y rastreo informático sin precedentes, el diario británico The Guardian descubrió y publicó, el pasado 5 de abril, un secreto celosamente guardado: cuál es la verdadera identidad del creador del macabro sistema Lavanda. Se trata del general de brigada Yossi Soriel, comandante de la Unidad 8200 una de las agencias de vigilancia más poderosas del mundo (equivalente a la Agencia de Seguridad Nacional de EEUU), información luego confirmada por el diario israelí Haaretz.


Hasta hace tres semanas sólo se sabía que el inventor de esta tecnología “adictiva y excitante”, como varios usuarios la han catalogado, era el autor anónimo del libro “El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo” (The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World) publicado en 2021.


En el libro, Soriel defiende el diseño de una máquina especial que procese rápidamente ingentes cantidades de datos y genere potenciales “objetivos” para ataques militares en una guerra. Según el autor, esto resolvería el “atasco humano tanto para localizar más objetivos como para tomar decisiones que aprueben los ataques”. Y se lamenta: “Los humanos no podemos procesar tanta información. No importa a cuántas personas se le haya asignado la tarea de generar objetivos durante la guerra: seguirás sin generar suficientes objetivos al día”.


En las últimas semanas Israel ha atacado con misiles ambulancias con heridos y a camioneros que transportaban ayuda humanitaria. Frente a esto, frente a Lavanda, un enigma me atormenta: ¿cómo pudo prolongarse en un sector de los judíos, en los descendientes de las víctimas de las atrocidades nazis, la pulsión genocida, la planificación del dolor sobre el cuerpo de otro ser humano, el goce en la crueldad?


Lavanda no es Hollywood. Es Auschwitz, es Hiroshima, es Gaza.


-----------------

コメント


RECIBÍ EL NEWSLETTER

Te escribimos correos una vez por semana para informarte sobre las noticias de la comunidad, Armenia

y el Cáucaso con contexto y análisis.

eNTRADAS MÁS RECIENTES

2023- LVA 10-02.png

NECESITAMOS TU APOYO
PARA HACER PERIODISMO DESDE EL PIE

Si llegaste hasta acá...

Es porque te interesa la información con análisis y contexto. NOR SEVAN tiene el compromiso desde hace más de 20 años de informar para la paz y cuenta con vos para renovarlo cada día.

Unite a NOR SEVAN

bottom of page