Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

Libro en PDF 10 MITOS identidad mexicana (PROFECIA POSCOVID)

  Interesados comunicarse a correo: erubielcamacho43@yahoo.com.mx  si quieren versión impresa o electrónica donativo voluntario .

miércoles, 16 de octubre de 2024

'Lavender': la máquina de inteligencia artificial que dirige la ola de bombardeos de Israel en Gaza

 

'Lavender': la máquina de inteligencia artificial que dirige la ola de bombardeos de Israel en Gaza

El ejército israelí ha marcado a decenas de miles de habitantes de Gaza como sospechosos de asesinato, utilizando un sistema de selección de objetivos de inteligencia artificial con poca supervisión humana y una política permisiva para las bajas, revelan +972 y Local Call.

En asociación con

En 2021, se publicó en inglés un libro titulado “El equipo hombre-máquina: cómo crear sinergia entre la inteligencia humana y artificial que revolucionará nuestro mundo” bajo el seudónimo de “General de brigada YS”. En él, el autor, un hombre que, según hemos confirmado, es el actual comandante de la unidad de inteligencia israelí de élite 8200, defiende el diseño de una máquina especial que pudiera procesar rápidamente cantidades masivas de datos para generar miles de “objetivos” potenciales para ataques militares en el fragor de una guerra. Esa tecnología, escribe, resolvería lo que describió como un “cuello de botella humano tanto para localizar los nuevos objetivos como para tomar decisiones para aprobarlos”.

Resulta que una máquina de este tipo existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, que se ha presentado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una participación directa en el uso de la IA para generar objetivos para asesinatos, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA “como si fuera una decisión humana”.

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos agentes de las facciones militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo del sistema Lavender, que registró hasta 37.000 palestinos como presuntos militantes (y sus casas) para posibles ataques aéreos.

Durante las primeras etapas de la guerra, el ejército dio una aprobación total a los oficiales para que adoptaran las listas de asesinatos de Lavender, sin exigirles que comprobaran minuciosamente por qué la máquina tomaba esas decisiones ni que examinaran los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo sólo servía como "sello de goma" para las decisiones de la máquina, y añadió que, normalmente, dedicaban personalmente sólo unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender fuera un hombre. Esto se produjo a pesar de saber que el sistema comete lo que se considera "errores" en aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente marca a individuos que sólo tienen una conexión vaga con grupos militantes, o ninguna conexión en absoluto.

Además, el ejército israelí atacó sistemáticamente a las personas en cuestión mientras se encontraban en sus casas (normalmente de noche, cuando toda su familia estaba presente), en lugar de hacerlo durante una actividad militar. Según las fuentes, esto se debió a que, desde el punto de vista de lo que consideraban un punto de inteligencia, era más fácil localizar a las personas en sus casas particulares. Se utilizaron otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, que también se reveló aquí por primera vez, específicamente para rastrear a las personas en cuestión y llevar a cabo atentados cuando habían entrado en las residencias de sus familias.

Palestinos transportan a heridos e intentan apagar un incendio tras un ataque aéreo israelí contra una casa en el campo de refugiados de Shaboura, en la ciudad de Rafah, en el sur de la Franja de Gaza, el 17 de noviembre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos transportan a heridos e intentan apagar un incendio tras un ataque aéreo israelí contra una casa en el campo de refugiados de Shaboura, en la ciudad de Rafah, en el sur de la Franja de Gaza, el 17 de noviembre de 2023. (Abed Rahim Khatib/Flash90)

El resultado, como testificaron las fuentes, es que miles de palestinos –la mayoría de ellos mujeres y niños o personas que no participaron en los combates– fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de AI.

“No nos interesaba matar a los agentes [de Hamás] sólo cuando se encontraban en un edificio militar o participaban en una actividad militar”, dijo A., un oficial de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardearon en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.

La máquina Lavender se suma a otro sistema de inteligencia artificial, “The Gospel”, sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí . Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que el ejército afirma que operan los militantes, Lavender marca a las personas y las pone en una lista de asesinatos. 

Además, según las fuentes, cuando se trataba de atacar a supuestos militantes jóvenes marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas "tontas" (en contraste con las bombas de precisión "inteligentes"), que pueden destruir edificios enteros sobre sus ocupantes y causar víctimas significativas. "No se quiere desperdiciar bombas caras en gente sin importancia: es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de "cientos" de casas privadas de supuestos operativos jóvenes marcados por Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como "daños colaterales".

En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada agente subalterno de Hamás que Lavender marcara, se permitía matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto funcionario de Hamás con el rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

Palestinos esperan recibir los cuerpos de sus familiares que murieron en un ataque aéreo israelí, en el Hospital Al-Najjar en Rafah, en el sur de la Franja de Gaza, el 24 de octubre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos esperan recibir los cuerpos de sus familiares que murieron en un ataque aéreo israelí, en el Hospital Al-Najjar en Rafah, en el sur de la Franja de Gaza, el 24 de octubre de 2023. (Abed Rahim Khatib/Flash90)

La siguiente investigación está organizada según las seis etapas cronológicas de la producción de objetivos altamente automatizados por parte del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la máquina Lavender en sí, que marcó a decenas de miles de palestinos utilizando inteligencia artificial. En segundo lugar, revelamos el sistema “¿Dónde está papá?”, que rastreó a estos objetivos y avisó al ejército cuando entraron en sus hogares familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estas casas. 

En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos cómo un software automatizado calculó de forma imprecisa la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se bombardeaba una casa, normalmente de noche, el objetivo individual a veces ni siquiera estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.

PASO 1: GENERACIÓN DE OBJETIVOS

"Una vez que se pasa al modo automático, la generación de objetivos se vuelve loca"

En el ejército israelí, el término “objetivo humano” se refería en el pasado a un alto mando militar que, según las normas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio particular aunque haya civiles alrededor. Fuentes de inteligencia dijeron a +972 y Local Call que durante las guerras anteriores de Israel, dado que se trataba de una forma “especialmente brutal” de matar a alguien (a menudo matando a una familia entera junto al objetivo), esos objetivos humanos se marcaban con mucho cuidado y sólo se bombardeaba a los altos mandos militares en sus domicilios, para mantener el principio de proporcionalidad en virtud del derecho internacional.

Pero después del 7 de octubre, cuando los militantes liderados por Hamás lanzaron un ataque mortal contra comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240, el ejército, según las fuentes, adoptó una estrategia radicalmente diferente. En el marco de la “Operación Espadas de Hierro”, el ejército decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.

La nueva política también planteó un problema técnico para los servicios de inteligencia israelíes. En guerras anteriores, para autorizar el asesinato de un único objetivo humano, un oficial tenía que pasar por un proceso de “incriminación” complejo y prolongado: comprobar las pruebas de que la persona era en realidad un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, sus datos de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos incluía sólo unas pocas docenas de agentes de alto rango, el personal de inteligencia podía encargarse individualmente del trabajo de incriminarlos y localizarlos.

Palestinos intentan rescatar a supervivientes y sacar cadáveres de entre los escombros después de que los ataques aéreos israelíes alcanzaran edificios cerca del Hospital de los Mártires de Al-Aqsa en Deir al-Balah, en el centro de Gaza, el 22 de octubre de 2023. (Mohammed Zaanoun)
Palestinos intentan rescatar a supervivientes y sacar cadáveres de entre los escombros después de que los ataques aéreos israelíes alcanzaran edificios cercanos al Hospital de los Mártires de Al-Aqsa en Deir al-Balah, en el centro de Gaza, el 22 de octubre de 2023. (Mohammed Zaanoun/Activestills)

Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí pensó que tenía que confiar en software automatizado e inteligencia artificial. El resultado, según testifican las fuentes, fue que el papel del personal humano en la incriminación de los palestinos como agentes militares se dejó de lado, y la IA hizo la mayor parte del trabajo en su lugar. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender, que fue desarrollado para crear objetivos humanos en la guerra actual, ha marcado a unos 37.000 palestinos como sospechosos de "militantes de Hamás", la mayoría de ellos de bajo rango, para ser asesinados (el portavoz de las FDI negó la existencia de una lista de asesinatos de ese tipo en una declaración a +972 y Local Call).

“No sabíamos quiénes eran los agentes jóvenes, porque Israel no los rastreaba de manera rutinaria [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call, lo que esclareció el motivo detrás del desarrollo de esta máquina de objetivos en particular para la guerra actual. “Querían permitirnos atacar [a los agentes jóvenes] automáticamente. Ese es el Santo Grial. Una vez que se vuelve automático, la generación de objetivos se vuelve una locura”.

Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de asesinatos de Lavender, que anteriormente se habían utilizado sólo como una herramienta auxiliar, se concedió unas dos semanas después de que el personal de inteligencia comprobara "manualmente" la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de inteligencia artificial. Cuando esa muestra descubrió que los resultados de Lavender habían alcanzado una precisión del 90 por ciento en la identificación de la afiliación de un individuo con Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, dijeron las fuentes, si Lavender decidía que un individuo era un militante de Hamás, se les pedía esencialmente que lo trataran como una orden, sin ningún requisito de comprobar de forma independiente por qué la máquina tomó esa decisión o de examinar los datos de inteligencia en bruto en los que se basa.

“A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo B. “Eliminábamos a miles de personas. No las revisábamos una por una, poníamos todo en sistemas automáticos y, tan pronto como una de [las personas marcadas] llegaba a su casa, se convertía inmediatamente en un objetivo. Lo bombardeábamos a él y a su casa”.

“Me sorprendió mucho que nos pidieran bombardear una casa para matar a un soldado de infantería, cuya importancia en el combate era tan baja”, dijo una fuente sobre el uso de la IA para marcar a supuestos militantes de bajo rango. “Apodé a esos objetivos ‘objetivos basura’. Aun así, los encontré más éticos que los objetivos que bombardeamos solo por ‘disuasión’ : edificios altos que son evacuados y derribados solo para causar destrucción”.

Los resultados letales de esta flexibilización de las restricciones en la fase inicial de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos (casi la mitad del número de muertos hasta ahora) en las primeras seis semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.

Se observa una destrucción masiva en el popular distrito de Al-Rimal de la ciudad de Gaza después de que fuera blanco de ataques aéreos llevados a cabo por el ejército colonial israelí, el 10 de octubre de 2023. (Mohammed Zaanoun)
Se observa una destrucción masiva en el popular distrito de Al-Rimal de la ciudad de Gaza después de que las fuerzas israelíes atacaran el lugar el 10 de octubre de 2023. (Mohammed Zaanoun/Activestills)

“Cuanta más información y variedad, mejor”

El software Lavender analiza la información recogida sobre la mayoría de los 2,3 millones de habitantes de la Franja de Gaza a través de un sistema de vigilancia masiva, y luego evalúa y clasifica la probabilidad de que cada persona en particular sea miembro activo del ala militar de Hamás o de la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi cada persona de Gaza una calificación de 1 a 100, expresando la probabilidad de que sea un militante. 

Lavender aprende a identificar las características de los agentes conocidos de Hamás y la Yihad Islámica Palestina, cuya información se introdujo en la máquina como datos de entrenamiento, y luego a localizar esas mismas características —también llamadas “rasgos”— entre la población general, explicaron las fuentes. Un individuo al que se le descubran varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, se convertirá automáticamente en un objetivo potencial para el asesinato. 

En el libro “The Human-Machine Team”, al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin mencionar a Lavender por su nombre. (El propio comandante tampoco es nombrado, pero cinco fuentes de la Unidad 8200 confirmaron que el comandante es el autor, como también informó Haaretz). Al describir al personal humano como un “cuello de botella” que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa a cuántas personas se les haya asignado la tarea de producir objetivos durante la guerra: aún así no se pueden producir suficientes objetivos por día”.

La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina objetivo”, similar en descripción a Lavender, basada en algoritmos de IA y aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de WhatsApp con un militante conocido, cambiar de teléfono celular cada pocos meses y cambiar de dirección con frecuencia. 

“Cuanta más información y más variedad, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones en las redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Si bien los humanos seleccionan estas características al principio, continúa el comandante, con el tiempo la máquina llegará a identificarlas por sí sola. Esto, dice, puede permitir a los militares crear “decenas de miles de objetivos”, mientras que la decisión real de atacarlos o no seguirá siendo humana.

El libro no es la única ocasión en la que un alto comandante israelí insinuó la existencia de máquinas-objetivos humanos como Lavender. +972 y Local Call obtuvieron imágenes de una conferencia privada impartida por el comandante del centro secreto de inteligencia artificial y ciencia de datos de la Unidad 8200, el "Col. Yoav", en la semana de inteligencia artificial de la Universidad de Tel Aviv en 2023, de la que se informó en ese momento en los medios israelíes.

En su conferencia, el comandante habló sobre un nuevo y sofisticado sistema de detección de objetivos que utiliza el ejército israelí y que detecta a “personas peligrosas” basándose en su similitud con listas existentes de militantes conocidos con los que fue entrenado. “Gracias a este sistema, logramos identificar a los comandantes del escuadrón de misiles de Hamás”, dijo el “coronel Yoav” en la conferencia, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó el sistema por primera vez. 

Diapositivas de una presentación de una conferencia a cargo del comandante del Centro de Inteligencia Artificial y Ciencia de Datos de la Unidad 8200 de las Fuerzas de Defensa de Israel en la Universidad de Tel Aviv en 2023.
Diapositivas de una presentación de una conferencia a cargo del comandante del centro de Inteligencia Artificial y Ciencia de Datos de la Unidad 8200 de las FDI en la Universidad de Tel Aviv en 2023, obtenidas por +972 y Local Call.
Diapositivas de una presentación de una conferencia a cargo del comandante del centro de Inteligencia Artificial y Ciencia de Datos de la Unidad 8200 de las FDI en la Universidad de Tel Aviv en 2023, obtenidas por +972 y Local Call.
Diapositivas de una presentación de una conferencia a cargo del comandante del centro de Inteligencia Artificial y Ciencia de Datos de la Unidad 8200 de las FDI en la Universidad de Tel Aviv en 2023, obtenidas por +972 y Local Call.

Las diapositivas de la presentación de la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones de cómo funciona la máquina: se le suministran datos sobre los operativos existentes de Hamas, aprende a notar sus características y luego califica a otros palestinos basándose en cuán similares son a los militantes. 

“Clasificamos los resultados y determinamos el umbral [a partir del cual se ataca un objetivo]”, dijo el “coronel Yoav” en la conferencia, enfatizando que “al final, las decisiones las toman personas de carne y hueso. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están destinadas a ayudar [a los oficiales de inteligencia] a romper sus barreras”. 

En la práctica, sin embargo, fuentes que han utilizado Lavender en los últimos meses dicen que la acción humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.

“No había una política de “error cero””

B., un oficial superior que utilizó Lavender, hizo eco a +972 y Local Call que en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA, para ahorrar tiempo y permitir la producción en masa de objetivos humanos sin obstáculos. 

“Todo era estadístico, todo estaba ordenado, todo era muy seco”, dijo B. Señaló que esta falta de supervisión se permitió a pesar de que los controles internos mostraban que los cálculos de Lavender se consideraban precisos solo el 90 por ciento de las veces; en otras palabras, se sabía de antemano que el 10 por ciento de los objetivos humanos designados para ser asesinados no eran en absoluto miembros del ala militar de Hamás.

Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba por error a individuos que tenían patrones de comunicación similares a operativos conocidos de Hamas o PIJ, incluidos policías y trabajadores de defensa civil, familiares de militantes, residentes que tenían un nombre y apodo idénticos al de un operativo, y habitantes de Gaza que usaban un dispositivo que alguna vez perteneció a un operativo de Hamas. 

“¿Qué tan cercana tiene que ser una persona a Hamás para que [una máquina de inteligencia artificial] la considere afiliada a la organización?”, dijo una fuente crítica de la inexactitud de Lavender. “Es un límite vago. ¿Es un agente de Hamás una persona que no recibe un salario de Hamás, pero los ayuda con todo tipo de cosas? ¿Es un agente de Hamás alguien que estuvo en Hamás en el pasado, pero ya no está allí? Cada una de estas características —características que una máquina marcaría como sospechosas— es inexacta”.

Palestinos en el lugar de un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 24 de febrero de 2024. (Abed Rahim Khatib/Flash90)
Palestinos en el lugar de un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 24 de febrero de 2024. (Abed Rahim Khatib/Flash90)

Existen problemas similares con la capacidad de las máquinas de detección de objetivos para evaluar el teléfono utilizado por un individuo marcado para ser asesinado. “En la guerra, los palestinos cambian de teléfono todo el tiempo”, dijo la fuente. “La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa, tal vez lo pierde. No hay forma de confiar al 100 por ciento en el mecanismo automático que determina qué número [de teléfono] pertenece a quién”.

Según las fuentes, el ejército sabía que la mínima supervisión humana no permitiría descubrir estos fallos. “No existía una política de ‘error cero’. Los errores se trataban estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud, el protocolo era que incluso si no se sabe con certeza que la máquina está bien, se sabe que estadísticamente está bien. Así que hay que ir a por ello”.

“Se ha demostrado su eficacia”, dijo B., la fuente principal. “Hay algo en el enfoque estadístico que te establece una cierta norma y un estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene precedentes, según recuerdo. Y tengo mucha más confianza en un mecanismo estadístico que un soldado que perdió a un amigo hace dos días. Todos allí, incluido yo, perdimos a alguien el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”.

Otra fuente de inteligencia, que defendió la confianza en las listas de sospechosos palestinos generadas por Lavender, argumentó que valía la pena invertir el tiempo de un oficial de inteligencia sólo para verificar la información si el objetivo era un alto comandante de Hamás. “Pero cuando se trata de un militante joven, no quieres invertir personal y tiempo en ello”, dijo. “En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error de usar inteligencia artificial, arriesgarte a sufrir daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y vivir con ello”.

B. dijo que la razón de esta automatización era un impulso constante para generar más objetivos para asesinar. “En un día sin objetivos [cuya calificación de característica fuera suficiente para autorizar un ataque], atacamos con un umbral más bajo. Nos presionaban constantemente: 'Traednos más objetivos'. Realmente nos gritaban. Terminamos [de matar] a nuestros objetivos muy rápidamente”.

B. ...

Palestinos en el lugar donde se encuentra un edificio destruido por un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de 2024. (Abed Rahim Khatib/Flash90)
Palestinos en el lugar donde se encuentra un edificio destruido por un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de 2024. (Abed Rahim Khatib/Flash90)

Una fuente que trabajó con el equipo de ciencia de datos militares que entrenó a Lavender dijo que los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a quienes no considera militantes, también se introdujeron en la máquina. “Me molestó el hecho de que cuando entrenaron a Lavender, usaron el término 'operativo de Hamás' de manera vaga e incluyeron a personas que eran trabajadores de defensa civil en el conjunto de datos de entrenamiento”, dijo.

La fuente añadió que incluso si uno cree que estas personas merecen ser asesinadas, entrenar el sistema en función de sus perfiles de comunicación hizo que fuera más probable que Lavender seleccionara civiles por error cuando sus algoritmos se aplicaran a la población general. “Dado que es un sistema automático que no es operado manualmente por humanos, el significado de esta decisión es dramático: significa que se están incluyendo muchas personas con un perfil de comunicación civil como objetivos potenciales”.

'Sólo comprobamos que el objetivo era un hombre'

El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de inteligencia artificial para incriminar a los objetivos, diciendo que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. La declaración continúa: “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son objetivos legítimos para un ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional”.  

Sin embargo, algunas fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de presuntos militantes “jóvenes” señalados por Lavender era realizar una única comprobación: asegurarse de que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se suponía que si el objetivo era una mujer, la máquina probablemente había cometido un error, porque no hay mujeres entre las filas de las ramas militares de Hamás y la Yihad Islámica Palestina.

“Un ser humano tuvo que verificar el objetivo durante unos pocos segundos”, dijo B., explicando que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender “lo hacía bien” la mayor parte del tiempo. “Al principio, hicimos comprobaciones para asegurarnos de que la máquina no se confundiera. Pero en algún momento confiamos en el sistema automático y solo comprobamos que [el objetivo] fuera un hombre; eso fue suficiente. No lleva mucho tiempo saber si alguien tiene voz masculina o femenina”. 

Para llevar a cabo la comprobación de la identidad de hombre y mujer, B. afirmó que en la guerra actual, “invertiría 20 segundos en cada objetivo en esta etapa y realizaría docenas de ellas cada día. No tenía ningún valor añadido como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el agente] aparecía en el mecanismo automatizado y yo comprobaba que era un hombre, habría permiso para bombardearlo, sujeto a un examen de los daños colaterales”.

Palestinos emergen de los escombros de las casas destruidas por los ataques aéreos israelíes en la ciudad de Rafah, en el sur de la Franja de Gaza, el 20 de noviembre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos emergen de los escombros de las casas destruidas por los ataques aéreos israelíes en la ciudad de Rafah, en el sur de la Franja de Gaza, el 20 de noviembre de 2023. (Abed Rahim Khatib/Flash90)

En la práctica, según las fuentes, esto significa que, en el caso de los civiles que fueron marcados por error por Lavender, no había ningún mecanismo de supervisión para detectar el error. Según B., un error común se producía “si el objetivo [de Hamás] le daba [su teléfono] a su hijo, a su hermano mayor o simplemente a un hombre al azar. Esa persona sería bombardeada en su casa con su familia. Esto sucedía a menudo. Estos eran la mayoría de los errores provocados por Lavender”, dijo B.

PASO 2: VINCULAR LOS OBJETIVOS CON LOS HOGARES FAMILIARES

'La mayoría de las personas que mataste eran mujeres y niños'

La siguiente etapa en el procedimiento de asesinato del ejército israelí es identificar dónde atacar los objetivos que genera Lavender.

En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás coloca a sus agentes y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de estructuras civiles, incluidos lugares sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están sujetas al derecho internacional y actúan de acuerdo con él, dirigiendo sus ataques únicamente contra objetivos militares y agentes militares”. 

Las seis fuentes con las que hablamos coincidieron en cierta medida en lo mismo: dijeron que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas, que los militantes de Hamás utilizan ambulancias para desplazarse y que se han situado innumerables activos militares cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como resultado de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, elude la responsabilidad de Israel por causar las víctimas. 

Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número de muertos sin precedentes en los actuales bombardeos de Israel es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus casas privadas, junto a sus familias, en parte porque era más fácil desde el punto de vista de inteligencia marcar las casas de las familias utilizando sistemas automatizados.

De hecho, varias fuentes destacaron que, a diferencia de los numerosos casos en que los agentes de Hamás llevaban a cabo actividades militares desde zonas civiles, en el caso de los ataques sistemáticos con fines de asesinato, el ejército optó sistemáticamente por bombardear a los militantes sospechosos cuando se encontraban en viviendas civiles desde las que no se desarrollaba ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema de vigilancia masiva de Israel en Gaza.

Los palestinos se apresuran a trasladar a los heridos, incluidos muchos niños, al hospital Al-Shifa en la ciudad de Gaza mientras las fuerzas israelíes continúan bombardeando la Franja de Gaza, el 11 de octubre de 2023. (Mohammed Zaanoun/Activestills)
Los palestinos se apresuran a trasladar a los heridos, incluidos muchos niños, al hospital Al-Shifa en la ciudad de Gaza mientras las fuerzas israelíes continúan bombardeando la Franja de Gaza, el 11 de octubre de 2023. (Mohammed Zaanoun/Activestills)

Las fuentes dijeron a +972 y Local Call que, dado que todos los habitantes de Gaza tenían una casa privada con la que podían relacionarse, los sistemas de vigilancia del ejército podían “vincular” a los individuos con las casas de sus familias de manera fácil y automática. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios programas automáticos adicionales. Estos programas rastrean a miles de personas simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial que apunta, quien luego marca la casa para bombardearla. Uno de estos programas de rastreo, revelado aquí por primera vez, se llama “¿Dónde está papá?”. 

“Se introducen cientos de objetivos en el sistema y se espera a ver a quién se puede matar”, dijo una fuente con conocimiento del sistema. “Se llama caza amplia: se copian y pegan elementos de las listas que produce el sistema de objetivos”.

Los datos también demuestran claramente esta política: durante el primer mes de la guerra, más de la mitad de las víctimas mortales (6.120 personas) pertenecían a 1.340 familias, muchas de las cuales fueron completamente aniquiladas mientras estaban en sus casas, según cifras de la ONU . La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la importancia de esta política.

Otra fuente dijo que cada vez que el ritmo de los asesinatos disminuía, se añadían más objetivos a sistemas como ¿Dónde está papá? para localizar a personas que entraban en sus casas y, por tanto, podían ser atacadas con bombas. Dijo que la decisión de incluir a quién en los sistemas de rastreo podía ser tomada por oficiales de rango relativamente bajo en la jerarquía militar. 

“Un día, por mi propia cuenta, añadí unos 1.200 nuevos objetivos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] disminuyó”, dijo la fuente. “Eso me pareció lógico. En retrospectiva, parece que tomé una decisión seria. Y esas decisiones no se tomaron a niveles altos”.

Las fuentes dijeron que en las dos primeras semanas de la guerra, se incluyeron inicialmente “varios miles” de objetivos en programas de localización como ¿Dónde está papá? Entre ellos se encontraban todos los miembros de la unidad de fuerzas especiales de élite de Hamás, Nukhba, todos los agentes antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de objetivos se amplió drásticamente. 

“Al final, todos fueron los que fueron marcados por Lavender”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas después, cuando las brigadas [israelíes] entraron en Gaza, y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte”. Según esta fuente, incluso algunos menores fueron marcados por Lavender como objetivos para los bombardeos. “Normalmente, los agentes tienen más de 17 años, pero esa no era una condición”.

Palestinos heridos son atendidos en el suelo debido al hacinamiento en el Hospital Al-Shifa, Ciudad de Gaza, en el centro de la Franja de Gaza, el 18 de octubre de 2023. (Mohammed Zaanoun/Activestills)
Palestinos heridos son atendidos en el suelo debido al hacinamiento en el Hospital Al-Shifa, Ciudad de Gaza, en el centro de la Franja de Gaza, el 18 de octubre de 2023. (Mohammed Zaanoun/Activestills)

Según las fuentes, se combinaron Lavender y sistemas como ¿Dónde está papá? con efectos letales, matando a familias enteras. Al agregar un nombre de las listas generadas por Lavender al sistema de seguimiento de hogares ¿Dónde está papá?, explicó A., la persona marcada quedaría bajo vigilancia constante y podría ser atacada tan pronto como pusiera un pie en su hogar, derrumbándose la casa sobre todos los que estuvieran dentro.

“Digamos que calculas que hay un agente de Hamás más 10 civiles en la casa”, dijo A. “Por lo general, esos 10 serán mujeres y niños. Así que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños”.

PASO 3: ELEGIR UN ARMA

“Normalmente llevábamos a cabo los ataques con bombas tontas”

Una vez que Lavender ha marcado un objetivo para el asesinato, el personal del ejército ha verificado que es hombre y el software de rastreo ha localizado el objetivo en su casa, la siguiente etapa es elegir la munición con la que bombardearlos.

En diciembre de 2023, la CNN informó que, según estimaciones de inteligencia de Estados Unidos, alrededor del 45 por ciento de las municiones utilizadas por la fuerza aérea israelí en Gaza eran bombas “tontas”, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo dijo: “Como ejército comprometido con el derecho internacional y un código moral de conducta, estamos dedicando vastos recursos a minimizar el daño a los civiles a los que Hamás ha obligado a desempeñar el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza”.

Sin embargo, tres fuentes de inteligencia dijeron a +972 y Local Call que los agentes jóvenes señalados por Lavender fueron asesinados sólo con bombas tontas, con el fin de ahorrar armamento más caro. La implicación, explicó una fuente, era que el ejército no atacaría a un objetivo joven si vivía en un edificio alto, porque el ejército no quería gastar una “bomba de piso” más precisa y costosa (con un efecto colateral más limitado) para matarlo. Pero si un objetivo joven vivía en un edificio de sólo unos pocos pisos, el ejército estaba autorizado a matarlo a él y a todos los que estaban en el edificio con una bomba tonta.

Palestinos en el lugar donde se encuentra un edificio destruido por un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de 2024. (Abed Rahim Khatib/Flash90)
Palestinos en el lugar donde se encuentra un edificio destruido por un ataque aéreo israelí en Rafah, en el sur de la Franja de Gaza, el 18 de marzo de 2024. (Abed Rahim Khatib/Flash90)

“Lo mismo ocurrió con todos los objetivos menores”, testificó C., que utilizó varios programas automatizados en la guerra actual. “La única pregunta era si era posible atacar el edificio en términos de daños colaterales. Porque normalmente realizamos los ataques con bombas tontas, y eso significaba destruir literalmente toda la casa encima de sus ocupantes. Pero incluso si se evita el ataque, no te importa: pasas inmediatamente al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando”.

PASO 4: AUTORIZACIÓN DE VÍCTIMAS CIVILES

Atacamos casi sin considerar los daños colaterales

Una fuente dijo que, cuando se atacaba a operativos subalternos, incluidos aquellos marcados por sistemas de inteligencia artificial como Lavender, el número de civiles que se les permitía matar junto con cada objetivo se fijó durante las semanas iniciales de la guerra en hasta 20. Otra fuente afirmó que el número fijo era de hasta 15. Estos "grados de daños colaterales", como los llaman los militares, se aplicaron ampliamente a todos los militantes jóvenes sospechosos, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin un examen específico caso por caso para sopesar la ventaja militar de asesinarlos frente al daño esperado a los civiles. 

Según A., que fue oficial en una sala de operaciones de objetivos en la guerra actual, el departamento de derecho internacional del ejército nunca antes había dado una "aprobación tan amplia" para un grado tan alto de daños colaterales. "No se trata sólo de que se pueda matar a cualquier persona que sea un soldado de Hamás, lo cual está claramente permitido y es legítimo en términos de derecho internacional", dijo A. "Sino que te dicen directamente: 'Tienes derecho a matarlos junto con muchos civiles'. 

“Cualquier persona que haya vestido el uniforme de Hamás en el último año o dos podría ser bombardeada con 20 [civiles muertos como] daño colateral, incluso sin permiso especial”, continuó A. “En la práctica, el principio de proporcionalidad no existía”.

Según A., esa fue la política durante la mayor parte del tiempo que estuvo en el servicio. Solo más tarde, los militares redujeron el grado de daños colaterales. “En este cálculo, también podrían ser 20 niños por un agente subalterno… Realmente no era así en el pasado”, explicó A. Cuando se le preguntó sobre la lógica de seguridad detrás de esta política, A. respondió: “Letalidad”.

Palestinos esperan recibir los cuerpos de sus familiares que murieron en ataques aéreos israelíes en el Hospital Al-Najjar en Rafah, al sur de la Franja de Gaza, el 7 de noviembre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos esperan recibir los cuerpos de sus familiares que murieron en ataques aéreos israelíes en el Hospital Al-Najjar en Rafah, al sur de la Franja de Gaza, el 7 de noviembre de 2023. (Abed Rahim Khatib/Flash90)

Según las fuentes, el grado de daño colateral predeterminado y fijo ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, porque ahorraba tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por cada militante joven sospechoso marcado por AI fue de quince, pero que este número "subió y bajó" con el tiempo. 

“Al principio atacamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana después del 7 de octubre. “En la práctica, no se contabilizaban las personas [en cada casa bombardeada], porque no se podía saber si estaban en casa o no. Después de una semana, comenzaron las restricciones sobre los daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho atacar, porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a aumentar el número”.

“Sabíamos que mataríamos a más de 100 civiles”

Fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no genera en masa blancos humanos jóvenes para bombardear casas de civiles. El hecho de que la mayoría de las casas en la Franja de Gaza ya hayan sido destruidas o dañadas, y que casi toda la población haya sido desplazada, también afectó la capacidad del ejército para confiar en bases de datos de inteligencia y programas automatizados de localización de casas. 

E. afirmó que el bombardeo masivo de militantes jóvenes tuvo lugar sólo en la primera o segunda semana de la guerra, y luego se detuvo principalmente para no desperdiciar bombas. “Hay una economía de municiones”, dijo E. “Siempre tuvieron miedo de que hubiera [una guerra] en la zona norte [con Hezbolá en el Líbano]. Ya no atacan a este tipo de gente [jóvenes] en absoluto”. 

Sin embargo, los ataques aéreos contra altos comandantes de Hamás continúan, y fuentes dijeron que para estos ataques, el ejército está autorizando el asesinato de “cientos” de civiles por objetivo, una política oficial para la cual no hay precedentes históricos en Israel, o incluso en operaciones militares recientes de Estados Unidos.

“Sabíamos que mataríamos a más de 100 civiles cuando bombardeamos al comandante del batallón Shuja’iya”, recordó B. sobre un atentado del 2 de diciembre que, según el portavoz de las FDI , tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue algo inusual. Más de 100 civiles... es cruzar una línea roja”.

Una bola de fuego y humo se eleva durante los ataques aéreos israelíes en la Franja de Gaza, el 9 de octubre de 2023. (Atia Mohammed/Flash90)
Una bola de fuego y humo se eleva durante los ataques aéreos israelíes en la Franja de Gaza, el 9 de octubre de 2023. (Atia Mohammed/Flash90)

Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos de sus familiares murieron en ese bombardeo. Era residente de Shuja'iya, al este de la ciudad de Gaza, y estaba en un supermercado local ese día cuando escuchó cinco explosiones que destrozaron los vidrios de las ventanas. 

“Corrí a la casa de mi familia, pero ya no había edificios allí”, dijo Al-Sheikh a +972 y Local Call. “La calle estaba llena de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y pozos profundos. La gente comenzó a buscar en el cemento, usando sus manos, y yo también, buscando señales de la casa de mi familia”. 

La esposa y la pequeña hija de Al-Sheikh sobrevivieron, protegidas de los escombros por un armario que cayó sobre ellas, pero el hombre encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y sus hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B'Tselem, el bombardeo de ese día destruyó docenas de edificios, mató a docenas de personas y enterró a cientos bajo las ruinas de sus casas.

'Familias enteras fueron asesinadas'

Fuentes de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más letales. Para asesinar a Ayman Nofal, el comandante de la Brigada Central de Gaza de Hamás, una fuente dijo que el ejército autorizó la matanza de aproximadamente 300 civiles, destruyendo varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes satelitales y videos de la escena muestran la destrucción de varios edificios de apartamentos de varios pisos.

“Entre 16 y 18 casas fueron destruidas en el ataque”, dijo Amro Al-Khatib, un residente del campamento, a +972 y Local Call. “No podíamos distinguir un apartamento del otro: todos estaban mezclados entre los escombros y encontramos partes de cuerpos humanos por todas partes”.

Al-Khatib recordó que después del incidente se sacaron de entre los escombros unos 50 cadáveres y que había alrededor de 200 personas heridas, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campamento pasaron cinco días sacando a los muertos y heridos, dijo.

Palestinos que excavan con sus propias manos encuentran un cadáver entre los escombros después de un ataque aéreo israelí que mató a decenas de palestinos en medio del campo de refugiados de Al-Maghazi, en el centro de la Franja de Gaza, el 5 de noviembre de 2023. (Mohammed Zaanoun/Activestills)
Palestinos que excavan con sus propias manos encuentran un cadáver entre los escombros después de un ataque aéreo israelí que mató a decenas de palestinos en medio del campo de refugiados de Al-Maghazi, en el centro de la Franja de Gaza, el 5 de noviembre de 2023. (Mohammed Zaanoun/Activestills)

Nael Al-Bahisi, un paramédico, fue uno de los primeros en llegar al lugar. Contó entre 50 y 70 víctimas ese primer día. “En un momento determinado, comprendimos que el objetivo del ataque era el comandante de Hamás Ayman Nofal”, dijo a +972 y Local Call. “Lo mataron, y también a mucha gente que no sabía que estaba allí. Familias enteras con niños fueron asesinadas”.

Otra fuente de inteligencia dijo a +972 y Local Call que el ejército destruyó un edificio de gran altura en Rafah a mediados de diciembre, matando a “docenas de civiles”, con el fin de intentar matar a Mohammed Shabaneh, el comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos comandantes se esconden en túneles que pasan por debajo de edificios civiles y, por lo tanto, la opción de asesinarlos con un ataque aéreo necesariamente mata a civiles.

“La mayoría de los heridos eran niños”, dijo Wael Al-Sir, de 55 años, que presenció el ataque a gran escala que algunos habitantes de Gaza creen que fue un intento de asesinato. Dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un “bloque residencial entero” y mató al menos a 10 niños.

“Había una política completamente permisiva en cuanto a las víctimas de las operaciones [de bombardeo], tan permisiva que, en mi opinión, tenía un elemento de venganza”, afirmó D., una fuente de inteligencia. “El núcleo de esto eran los asesinatos de altos comandantes [de Hamás y la Yihad Islámica Palestina] por los que estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos para un comandante de brigada, cuántos para un comandante de batallón, y así sucesivamente”.

“Había regulaciones, pero eran muy indulgentes”, dijo E., otra fuente de inteligencia. “Hemos matado a gente con daños colaterales de dos dígitos altos, o incluso de tres dígitos bajos. Son cosas que nunca habían sucedido antes”.

Palestinos inspeccionan sus hogares e intentan rescatar a sus familiares de debajo de los escombros después de un ataque aéreo israelí en la ciudad de Rafah, en el sur de la Franja de Gaza, el 22 de octubre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos inspeccionan sus hogares e intentan rescatar a sus familiares de debajo de los escombros después de un ataque aéreo israelí en la ciudad de Rafah, en el sur de la Franja de Gaza, el 22 de octubre de 2023. (Abed Rahim Khatib/Flash90)

Una tasa tan elevada de “daños colaterales” es excepcional no sólo en comparación con lo que el ejército israelí consideraba anteriormente aceptable, sino también en comparación con las guerras libradas por Estados Unidos en Irak, Siria y Afganistán. 

El general Peter Gersten, comandante adjunto de Operaciones e Inteligencia en la operación para combatir al ISIS en Irak y Siria, dijo a una revista de defensa estadounidense en 2021 que un ataque con daños colaterales de 15 civiles se desvió del procedimiento; para llevarlo a cabo, tuvo que obtener un permiso especial del jefe del Comando Central de EE. UU., el general Lloyd Austin, quien ahora es secretario de Defensa. 

“En el caso de Osama Bin Laden, el valor de bajas no combatientes era de 30, pero si se trataba de un comandante de bajo nivel, su valor de bajas no combatientes era, por lo general, cero”, dijo Gersten. “Durante mucho tiempo, el valor de bajas no combatientes era cero”.

'Nos dijeron: “Lo que podáis, bombardead”'

Todas las fuentes entrevistadas para esta investigación dijeron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron en gran medida en la política de fuego del ejército y en el grado de daños colaterales. “Al principio, la atmósfera era dolorosa y vengativa”, dijo B., quien fue reclutado en el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de objetivos. “Las reglas eran muy indulgentes. Derribaron cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Fue una locura.

“Había una disonancia: por un lado, la gente de aquí estaba frustrada porque no estábamos atacando lo suficiente”, continuó B. “Por otro lado, al final del día se ve que otros mil habitantes de Gaza han muerto, la mayoría de ellos civiles”.

“Hubo histeria en las filas profesionales”, dijo D., quien también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para intentar desmantelar las capacidades de Hamás”.

El ministro de Defensa, Yoav Gallant, habla con soldados israelíes en una zona de concentración no lejos de la valla de Gaza, el 19 de octubre de 2023. (Chaim Goldberg/Flash90)
El ministro de Defensa, Yoav Gallant, habla con soldados israelíes en una zona de concentración no lejos de la valla de Gaza, el 19 de octubre de 2023. (Chaim Goldberg/Flash90)

D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la “venganza”, pero expresó que “tan pronto como cada objetivo relacionado con Hamás se vuelva legítimo y casi cualquier daño colateral sea aprobado, estará claro que miles de personas serán asesinadas. Incluso si oficialmente cada objetivo está relacionado con Hamás, cuando la política es tan permisiva, pierde todo significado”.

A. también utilizó la palabra “venganza” para describir la atmósfera dentro del ejército después del 7 de octubre. “Nadie pensó en qué hacer después, cuando la guerra terminara, o cómo sería posible vivir en Gaza y qué harían con ella”, dijo A. “Nos dijeron: ahora tenemos que joder a Hamás, sin importar el costo. Todo lo que puedas, bombardea”.

B., la principal fuente de inteligencia, dijo que, en retrospectiva, cree que esta política “desproporcionada” de matar palestinos en Gaza también pone en peligro a los israelíes, y que esta fue una de las razones por las que decidió ser entrevistado.

“A corto plazo, estamos más seguros, porque perjudicamos a Hamás. Pero creo que estamos menos seguros a largo plazo. Veo que todas las familias en duelo en Gaza –que son casi todos– aumentarán la motivación de [la gente para unirse a] Hamás dentro de diez años. Y será mucho más fácil para [Hamás] reclutarlos”.

En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes, afirmando que “cada objetivo se examina individualmente, mientras que se hace una evaluación individual de la ventaja militar y el daño colateral esperado del ataque… Las FDI no llevan a cabo ataques cuando el daño colateral esperado del ataque es excesivo en relación con la ventaja militar”.

PASO 5: CÁLCULO DEL DAÑO COLATERAL

'El modelo no estaba conectado con la realidad'

Según las fuentes de inteligencia, el cálculo que hacía el ejército israelí del número de civiles que se esperaba que murieran en cada casa junto a un objetivo (un procedimiento examinado en una investigación anterior de +972 y Local Call) se realizaba con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles que podían morir figuraba como parte de un "archivo de objetivos". Sin embargo, después del 7 de octubre, esta verificación exhaustiva se abandonó en gran medida en favor de la automatización. 

En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recoge información de los teléfonos móviles en la Franja de Gaza y proporciona al ejército una estimación en tiempo real del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general de brigada Udi Ben Muha dijo al Times que "no es un sistema cien por cien perfecto, pero te da la información que necesitas para tomar una decisión". El sistema funciona según colores: el rojo marca las zonas donde hay mucha gente, y el verde y el amarillo las zonas que han quedado relativamente libres de residentes. 

Palestinos caminan por una carretera principal después de huir de sus hogares en la ciudad de Gaza hacia la parte sur de Gaza, el 10 de noviembre de 2023. (Atia Mohammed/Flash90)
Palestinos caminan por una carretera principal después de huir de sus hogares en la ciudad de Gaza hacia la parte sur de Gaza, el 10 de noviembre de 2023. (Atia Mohammed/Flash90)

Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizó para decidir si se debía bombardear un edificio en Gaza. Dijeron que el software calculaba el número de civiles que residían en cada casa antes de la guerra (evaluando el tamaño del edificio y revisando su lista de residentes) y luego reducía esas cifras en función de la proporción de residentes que supuestamente habían evacuado el barrio. 

Por ejemplo, si el ejército estimaba que la mitad de los residentes de un barrio se habían marchado, el programa contabilizaba una casa que normalmente tenía diez residentes como si estuviera habitada por cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no inspeccionaba las casas para comprobar cuántas personas vivían realmente allí, como hizo en operaciones anteriores, para averiguar si la estimación del programa era realmente exacta.

“Este modelo no se correspondía con la realidad”, afirmó una fuente. “No había ninguna relación entre quienes estaban en la casa ahora, durante la guerra, y quienes figuraban como residentes antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que había varias familias dentro, escondidas juntas”. 

La fuente dijo que, aunque el ejército sabía que tales errores podían ocurrir, se adoptó este modelo impreciso, porque era más rápido. Por eso, dijo, “el cálculo de los daños colaterales era completamente automático y estadístico”, incluso se obtenían cifras que no eran números enteros.

PASO 6: BOMBARDEAR UNA CASA FAMILIAR

'Mataste a una familia sin ningún motivo'

Las fuentes que hablaron con +972 y Local Call explicaron que a veces había una brecha sustancial entre el momento en que los sistemas de seguimiento como Where's Daddy? alertaban a un oficial de que un objetivo había entrado en su casa y el bombardeo en sí, lo que llevó a la muerte de familias enteras incluso sin alcanzar el objetivo del ejército. "Me pasó muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa", dijo una fuente. "El resultado es que mataste a una familia sin ninguna razón".

Tres fuentes de inteligencia dijeron a +972 y Local Call que habían presenciado un incidente en el que el ejército israelí bombardeó la casa privada de una familia, y luego resultó que el objetivo del asesinato ni siquiera estaba dentro de la casa, ya que no se realizó ninguna verificación adicional en tiempo real.

Palestinos reciben los cuerpos de sus familiares que murieron en ataques aéreos israelíes, Hospital Al-Najjar, sur de la Franja de Gaza, 6 de noviembre de 2023. (Abed Rahim Khatib/Flash90)
Palestinos reciben los cuerpos de sus familiares que murieron en ataques aéreos israelíes, Hospital Al-Najjar, sur de la Franja de Gaza, 6 de noviembre de 2023. (Abed Rahim Khatib/Flash90)

“A veces [el objetivo] estaba en casa antes, y luego por la noche se iba a dormir a otro lugar, digamos bajo tierra, y tú no lo sabías”, dijo una de las fuentes. “Hay veces en las que verificas dos veces la ubicación, y hay veces en las que simplemente dices: 'Está bien, estuvo en la casa en las últimas horas, así que puedes bombardear'”. 

Otra fuente describió un incidente similar que lo afectó y lo hizo querer ser entrevistado para esta investigación. “Entendimos que el objetivo estaba en casa a las 8 p.m. Al final, la fuerza aérea bombardeó la casa a las 3 a.m. Luego descubrimos que [en ese lapso de tiempo] había logrado mudarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos”.

En guerras anteriores en Gaza, después del asesinato de objetivos humanos, la inteligencia israelí llevaba a cabo procedimientos de evaluación de daños por bombas (BDA), una comprobación rutinaria posterior al ataque para ver si el comandante superior había muerto y cuántos civiles habían muerto junto con él. Como se reveló en una investigación anterior de +972 y Local Call , esto implicaba escuchar las llamadas telefónicas de los familiares que habían perdido a sus seres queridos. En la guerra actual, sin embargo, al menos en relación con los militantes jóvenes marcados mediante IA, las fuentes dicen que este procedimiento fue abolido para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles murieron realmente en cada ataque, y en el caso de los presuntos operativos de bajo rango de Hamás y la Yihad Islámica Palestina marcados por AI, ni siquiera sabían si el objetivo mismo había muerto.

“No sabes exactamente a cuántos mataste ni a quién mataste”, dijo una fuente de inteligencia a Local Call para una investigación previa publicada en enero. “Solo cuando se trata de agentes de alto rango de Hamás sigues el procedimiento de la BDA. En el resto de los casos, no te importa. Recibes un informe de la fuerza aérea sobre si el edificio fue volado y eso es todo. No tienes idea de cuánto daño colateral hubo; pasas inmediatamente al siguiente objetivo. El énfasis estaba en crear tantos objetivos como fuera posible, lo más rápido posible”.

Pero aunque el ejército israelí puede pasar página después de cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja'iya que perdió a 11 miembros de su familia en el bombardeo del 2 de diciembre, dijo que él y sus vecinos todavía están buscando cadáveres.

“Hasta ahora hay cadáveres bajo los escombros”, dijo. “Fueron bombardeados catorce edificios residenciales con sus habitantes dentro. Algunos de mis familiares y vecinos todavía están enterrados”.

No hay comentarios:

Publicar un comentario