IA para automatizar un genocidio: la implicación de nuestras tecnologías cotidianas en la guerra de Gaza

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

By Yuval Abraham | April 3, 2024 @ +972MAG.COM




FDI: Tecnologías de Automatización en Gaza



FUENTE: Archivo de las FDI
  • Lavender


    categoriza a posibles objetivos humanos con una calificación de riesgo para confeccionar kill-lists

  • Gospel/Habsora


    identifica estructuras y edificios que puedan ser objetivos

  • Where's daddy?


    geolocaliza objetivos humanos marcados cuando vuelven a sus hogares para indicar la ideoneidad del ataque

  • Fire Factory


    se encarga de la logística del ataque y de planificar la carga de munición

  • Depth of Wisdom


    mapea los túneles subterráneos con un sensor llamado geoteléfono de Elpam Electronics, que basado en el sonido generado por el movimiento, detecta a una persona a 10 metros de profundidad.

FDI tiene datos del 90% de la población del Banco Occidental y Gaza

  • Blue Wolf


    Aplicación móvil de escaneo facial implimentado por todo el territorio del Banco Occidental. L@s soldad@s reciben compensaciones como tiempo libre por escanear un mayor número de caras.

  • Red Wolf


    Punto de escaneo facial en los pasos de control. Permiten o bloquean automáticamente el paso de palestin@s a través del punto de control

  • Mensajería y Redes Sociales


    Informantes declaran que tecnologías como Lavender calculan calificaciones de riesgo basándose en contactos y grupos compartidos de WhatsApp o redes sociales como Facebook.

  • Llamadas telefónicas


    IDF almacena millones de horas de llamadas en centros de datos europeos.

HUMAN RIGHTS WATCH, Israely Military Use of Digital Tools in Gaza
  • Geolocación y "patterns of life"


    A través de datos móviles el IDF obtiene geolocaciones y "patterns of life".


  • Drones


    Las IDF han sido pioneras en el uso de drones para vigilar a la población.

    L@s palestin@s han oído noche y día los drones sobrevolar los cielos durante dos décadas.


Yossi Sariel es un oficial de las FDIs, comandante en cargo de la Unidad 8200 durante el primer año de la Guerra de Gaza.

Ha recibido premios por sus proyectos de anti-terrorismo usando IA.



La Unidad 8200 es la Unidad de Recolección de los Cuerpos de Inteligencia de las Fuerzas de Defensa de Israel cuya misión es la captación de señales de inteligencia y descifrado de códigos.

Debugging AI: Ley Humanitaria Internacional



DIH: jus in bello

El DIH es parte del derecho internacional público compuesto por tratados internacionales consuetudinarios (Artículo 38 del Estatuto de la Corte Internacional de Justicia). EL DIH regula la conducta de las partes involucradas en un conflicto armado (jus in bello) mientras que el derecho internacional público, regula el jus ad bellum.

Estas tecnologías presentan dificultades para atribuir si la responsabilidades legales del daño a civiles por un sistema autónomo (o incluso semi-autónomo), no sabiendo si tales recaen en el operador, el comandante, el programador, o el fabricante, o si la acción puede ser considerada una circunstancia ajena a su control.

Además éstas violan los siguientes principios de la LHI:

Principio de la Proporcialidad

  • El sistema permite marchar hasta 100 objetivos/día aumentando la velocidad de guerra a niveles inhumanos.

    Según el Teniente General Aviv Kohavi, retirado de las FDI en 2023, antes de la aplicación de tecnologías IA un analista humano producía unos 50 objetivos al año

  • Se ha priorizado el uso de bombas "tontas" en un 45% de los casos.

    Estas bombas conllevan un coste mucho menor, pero son bombas menos precisas que generan mayor destrucción y mayores daños colaterales.

  • Informantes constatan que anteriormente no se permitían daños colaterales para operativos de Hamas de bajo rango. Ahora se permite matar hasta 20 civiles. Si el objetivo es un comandante, se permite matar más de 100 civiles.

Principio de la Distinción (entre militares y civiles)

Tanto los algoritmos, los datos, como los métodos de clasificación contienen segos que violan el principio de distinción.

  • Lavender funciona con sistema "positive unlabeled learning" (PU) que facilmente produce falsos positivos, por lo que la promesa de ser preciso en un 90% es falsa.

    Ejemplo: tengo 100 fotos etiquetados que sé que son gatos, và lo demás está sin etiquetar. El sistema encuentra 90 de esos 100 gatos, pero no sé si ha etiquetado 10000 perros como gatos.

  • La tecnología facilita una correlación aleatoria en la que se consideran objetivos por estar en el mismo grupo de WhatsApp que alguien de Hamas, además de otros metadatos y cuestiones diversas como cambios frecuentes de número de teléfono o domicilio.
  • Estos algoritmos, como muchos de los algoritmos que rigen la vida de civiles, no son de código libre por lo que son cajas negras que no se pueden auditar. No sabemos en base a qué criterios Lavender construye las calificaciones de peligrosidad.

Principio de la Humanidad

  • El 50% de los objetivos atacados durante el primer mes de la guerra han sido viviendas familiares marcadas por "Where's Daddy?"
  • Human in-the-loop (supervisión) validan decisiones automatizadas en 20 segundos.
  • La promesa de que la tecnología ofrece una visión objetiva y más precisa del campo de batalla esconde sesgos y el inevitable "fog of war" teorizado por Clausewitz.
  • Los sistemas autónomos crean una profunda crisis en el marco de la responsabilidad legal.
  • La guerra se lleva a cabo de forma practicamente automatizada y basándose en los datos de una vigilancia masiva e indiscrimada de la población.

Debugging AI: Ilegalidad y Bias

Bias I

Cathy O'Neal, Ph. D. de matemáticas de la universidad de Harvard y analista de datos para la ciudad de Nueva York, advierte en su libro "Weapons of Math Destruction/Armas de Destrucción Matemática" que los sesgos ya implícitos en los datos usados para entrenar las IAs, refuerzan y aumentan dichos sesgos a través de un feedback loop.

US "signature strikes" (era Obama): las personas son objetivo no por su identidad confirmada, sino por un patrón de vida (por ejemplo, reunirse en grupo, viajar de noche, utilizar cierta tecnología). Estos patrones a menudo se corresponden con prácticas culturales de grupos étnicos particulares, produciendo sesgo en quién se considera "amenazante".


Bias II: Reconocimiento facial

Many autonomous systems rely on facial recognition data that, due to lower percentages of training data for ethnic minorities, work with noticeably less accuracy in those cases.



Legalidad?

Las tecnologías utilizadas en ésta y otras guerras utilizan la versatilidad de "neural networks/redes neuronales" para destilar patrones de data con mucho ruido. Estas tecnologías se han construído en gran medida con el scrapeo de datos no autorizados de usuarios civiles de todo el mundo a través de bancos de imágenes (como Google Images) recopilados por ImageNet, textos de internet (CommonCrawl), y audios y videos de youtube (Kinetics-400 y Google AudioSet).



¿Cómo nos afecta este desarrollo tecnológico?

Las Big Tech nos convierten en las armas y objetivos de un entramado tecnológico potencialmente mortífero.



Nuevas formas de combate

FUENTE: Seal Team Six. La Caza de Osama Bin Laden (2012).

El entramado militar-corporativo: Uso dual de las tecnologías

Militarización de Silicon Valley

Desde 2016, el ejército de EE. UU. ha integrado activamente a Silicon Valley en su agenda. Algunos hitos:

  • 2016 - Se crea la Junta de Innovación de Defensa. Se nombra al ex CEO de Google, Eric Schmidt, como su primer presidente.

  • 2018 - Trabajador@s de Google se movilizan contra Proyecto Maven,revelando que la corporación estaba desarrollando IA para ayudar al ejército a través del análisis de videos de drones.

  • 2024/25 - OpenAI como Google eliminaron sus prohibiciones contra las aplicaciones militares de sus tecnologías.

  • 2025 - la Reserva del Ejército de EE. UU. crea el Destacamento 201, una unidad que integra a los ejecutivos de Meta, Palantir y OpenAI en roles de liderazgo militar como tenientes coroneles: Shyam Sankar (CTO Palantir); Andrew Bosworth, (CTO Meta); Kevin Weil, (CPO OpenAI); Bob McGrew, (adviser Thinking Machines y antiguo CRO OpenAI).


Empresas cómplices en Gaza

Gracias a informantes (whistleblowers), investigadores y periodistas sabemos que:

  • Microsoft procesa la vigilancia masiva de las comunicaciones palestinas a través de Azure, almacenando hasta 1 millón de llamadas telefónicas a la hora en centros de datos de los Países Bajos e Irlanda.
  • Amazon y Google proporcionan el almacenamiento en la nube y la infraestructura para almacenar datos y entrenar las tecnologías de inteligencia artificial usadas por las FDI
  • Los modelos LLaMA de Meta, entrenados con datos públicos de Facebook e Instagram y la interacción del usuario con MetaAI, ayudarán a automatizar la toma de decisiones en los campos de batalla en tiempo real.
  • Se ha informado que los servicios que usamos a diario, como Google Photos, se utilizan en la tecnología de reconocimiento facial en Gaza para crear "listas de objetivos" debido a su efectividad.

Paradojas del uso de la "neutralidad" como arma

La tecnología se "vende" al usuario como "neutral", sin embargo es utilizada para reforzar las relaciones de poder existentes.


La utilización del concepto de "neutralidad" en tecnologías que no lo son

Algunos ejemplos son:

  • los sesgos de algoritmos son legitimados tras la "veracidad" de los números.
  • los argumentos de que una guerra automatizada es más eficaz, precisa y menos destructiva

La nueva Orden Ejecutiva de Trump que establece que la AI debe ser "anti-Woke" ejemplifica un nuevo uso de la "neutralidad" de la tecnología


La criminalización y prohibición de tecnologías que si son neutrales

  • La criptografía fuerte se ha criminalizado con fundamentos sobre los 4 jinetes del infocalipsis: "piratas, crimen organizado, pedofilia y terrorismo."

    Chat control supondrá la prohibición del encriptado fuerte, y la vigilancia de incluso las esferas privadas de comunicación como el e-mail

  • La detención de Pavel Durov, o las políticas de escaneo de WhatsApp manifiestan la presión política para efectivamente mantener tecnologías como el end-to-end encryption



La inseguridad como feature

La vigilancia masiva que permite la censura y la generación de kill-lists de forma automatizada no es un bug, es un feature de una inseguridad estructuralmente diseñada.

El caso de los teléfonos móviles

  • Los smartphones priorizan hardware y software de caja negra no auditable.
  • Los módems son fabricados por un puñado de empresas autorizadas y ejecutan su propio sistema operativo con acceso privilegiado al sistema operativo principal del teléfono
  • A nivel de software, servicios como Google Mobile Services nos espían a través de identificadores persistentes de los cuales se pueden destilar nuestros patrones de vida.
  • Comprender todos los procesos que se ejecutan en nuestros teléfonos es una tarea imposible.
  • Por "el bien de nuestra propia seguridad", Google Play Services o la App Store de Apple controlan la gran mayoría de las aplicaciones populares.
  • Los desarrolladores deben estar certificados y compilar su código a través de compiladores de caja negra corporativos.
  • Los usuarios que optan por no participar enfrentan ostracismo digital.
  • De hecho, en España, no se puede tener una tarjeta de débito sin un teléfono.

Pagers en Líbano (Sept. 2024)



Censura - Hate Speech - Desinformación



En la red

  • Sada Social identifica 25000 violaciones de los derechos digitales de Palestinos solo en 2024. Esto ocurre incluso en el ecosistema europeo legislado por la DSA.
  • Human Rights Watch documenta que la censura de Meta al contenido propalestino ha sido "sistémica y global".
  • Centro para la Lucha contra el Odio Digital informa que X no elimina el 96 % del contenido antisemita e islamófobo.

El caso de Alemania y la Ley de Control de la Red (NetzDG) precursora de la DSA

  • Criticar a Israel online o publicar "From the river to the sea" (considerado legalmente como discurso de odio" ha resultado en multas, despidos de trabajador@s y políticos, y suspensiones de estudiantes.
  • En 2025 Herbert Reul organiza una redada a gran escala contra el discurso de odio en línea para combatir la xenofobia de extrema derecha. El mismo marco legal podría criminalizar eslóganes a favor de Palestina.

El caso de Estados Unidos: "Catch and Revoke"

Como contramedida de las protestas en los los campus universitarios contra la guerra en Gaza, estudiantes internacionales y otros solicitantes de visa deben desde 2025 hacer públicas sus cuentas de redes sociales para el análisis de IA, en virtud de la iniciativa "Catch and Revoke" del secretario de Estado Marco Rubio.

Precedentes de casos palestinos

Lo que está sucediendo en EE.UU. y Alemania evoca las detenciones en 2015 de cientos de palestinos por sus publicaciones en Facebook.

Campañas de desinformación que empeoran las condiciones de war y benefician a las big tech

  • Una campaña de desinformación contra l@s trabajador@s de la UNRWA a través de cuentas coordinadas en redes sociales, perfiles falsos y anuncios pagados pone en peligro su financiación y la llegada de ayuda humanitaria.
  • La iniciativa astroturf "Facts for Peace" gastó 350000 dólares/mes en Meta para viralizar contenido emocional que presentaba las críticas a Israel como inherentemente antisemitas o pro-hamás

En España

Se captan a usuarios a través de procesos de proletarización del conocimiento (Stiegler) y estrategias de desarrollo de depedencias technológicas.

Se favorecen iniciativas Big Tech sobre iniciativas propias más locales.

Operación Gernika: Microsoft + Covid + Escuelas + Ley General de Protección de Datos.

Centros de datos de Amazon y Microsoft en Aragón y Talavera de la Reina con exepciones ambientales.






Gasto Militar (1998–2024)

Gasto total mundial y de los 10 países con mayor gasto militar, en millones de dólares según precios constantes de 2023.
(Fuente: SIPRI)

(Click en Play)

1998

Bibliografía

Crawford, K. (2021). The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.

Edwards, P. N. (1996). The Closed World: Computers and the Politics of Discourse in Cold War America. MIT Press.

Hables Gray, C. (2025). AI, Sacred Violence, and War—The Case of Gaza.

Foroohar, R.(2019). Don't Be Evil. How Big Tech Betrayed Its Founding Principles. Currency (Penguin Random House).

Guterson, H. (2016). Guterson, H. Drone: Remote Control WarfareMIT Press

Mbembe, A. (2003/2019). Necropolitics. Duke University Press.

Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

O'Neil, C. (2016). Weapons of Math Destruction. Crown Books

Stiegler, B. (2018). The Neganthropocene. Open Humanities Press.

Suchman, L. (2020). Algorithmic warfare and the reinvention of accuracy. Lancaster University.

Taplin, J. (2017). Move Fast and Break Things: How Facebook, Google, and Amazon Cornered Culture and Undermined Democracy. Little, Brown. ["Don't Be Evil" reference]