Aplicación móvil de escaneo facial implimentado por todo el territorio del Banco Occidental. L@s soldad@s reciben compensaciones como tiempo libre por escanear un mayor número de caras.
Punto de escaneo facial en los pasos de control. Permiten o bloquean automáticamente el paso de palestin@s a través del punto de control
Informantes declaran que tecnologías como Lavender calculan calificaciones de riesgo basándose en contactos y grupos compartidos de WhatsApp o redes sociales como Facebook.
IDF almacena millones de horas de llamadas en centros de datos europeos.
A través de datos móviles el IDF obtiene geolocaciones y "patterns of life".
Las IDF han sido pioneras en el uso de drones para vigilar a la población.
L@s palestin@s han oído noche y día los drones sobrevolar los cielos durante dos décadas.
Yossi Sariel es un oficial de las FDIs, comandante en cargo de la Unidad 8200 durante el primer año de la Guerra de Gaza.
Ha recibido premios por sus proyectos de anti-terrorismo usando IA.
La Unidad 8200 es la Unidad de Recolección de los Cuerpos de Inteligencia de las Fuerzas de Defensa de Israel cuya misión es la captación de señales de inteligencia y descifrado de códigos.
El DIH es parte del derecho internacional público compuesto por tratados internacionales consuetudinarios (Artículo 38 del Estatuto de la Corte Internacional de Justicia). EL DIH regula la conducta de las partes involucradas en un conflicto armado (jus in bello) mientras que el derecho internacional público, regula el jus ad bellum.
Estas tecnologías presentan dificultades para atribuir si la responsabilidades legales del daño a civiles por un sistema autónomo (o incluso semi-autónomo), no sabiendo si tales recaen en el operador, el comandante, el programador, o el fabricante, o si la acción puede ser considerada una circunstancia ajena a su control.
Además éstas violan los siguientes principios de la LHI:
Según el Teniente General Aviv Kohavi, retirado de las FDI en 2023, antes de la aplicación de tecnologías IA un analista humano producía unos 50 objetivos al año
Estas bombas conllevan un coste mucho menor, pero son bombas menos precisas que generan mayor destrucción y mayores daños colaterales.
Tanto los algoritmos, los datos, como los métodos de clasificación contienen segos que violan el principio de distinción.
Ejemplo: tengo 100 fotos etiquetados que sé que son gatos, và lo demás está sin etiquetar. El sistema encuentra 90 de esos 100 gatos, pero no sé si ha etiquetado 10000 perros como gatos.
Cathy O'Neal, Ph. D. de matemáticas de la universidad de Harvard y analista de datos para la ciudad de Nueva York, advierte en su libro "Weapons of Math Destruction/Armas de Destrucción Matemática" que los sesgos ya implícitos en los datos usados para entrenar las IAs, refuerzan y aumentan dichos sesgos a través de un feedback loop.
US "signature strikes" (era Obama): las personas son objetivo no por su identidad confirmada, sino por un patrón de vida (por ejemplo, reunirse en grupo, viajar de noche, utilizar cierta tecnología). Estos patrones a menudo se corresponden con prácticas culturales de grupos étnicos particulares, produciendo sesgo en quién se considera "amenazante".
Many autonomous systems rely on facial recognition data that, due to lower percentages of training data for ethnic minorities, work with noticeably less accuracy in those cases.
Las tecnologías utilizadas en ésta y otras guerras utilizan la versatilidad de "neural networks/redes neuronales" para destilar patrones de data con mucho ruido. Estas tecnologías se han construído en gran medida con el scrapeo de datos no autorizados de usuarios civiles de todo el mundo a través de bancos de imágenes (como Google Images) recopilados por ImageNet, textos de internet (CommonCrawl), y audios y videos de youtube (Kinetics-400 y Google AudioSet).
FUENTE: Seal Team Six. La Caza de Osama Bin Laden (2012).
Desde 2016, el ejército de EE. UU. ha integrado activamente a Silicon Valley en su agenda. Algunos hitos:
Gracias a informantes (whistleblowers), investigadores y periodistas sabemos que:
La tecnología se "vende" al usuario como "neutral", sin embargo es utilizada para reforzar las relaciones de poder existentes.
Algunos ejemplos son:
La nueva Orden Ejecutiva de Trump que establece que la AI debe ser "anti-Woke" ejemplifica un nuevo uso de la "neutralidad" de la tecnología
Chat control supondrá la prohibición del encriptado fuerte, y la vigilancia de incluso las esferas privadas de comunicación como el e-mail
La vigilancia masiva que permite la censura y la generación de kill-lists de forma automatizada no es un bug, es un feature de una inseguridad estructuralmente diseñada.
Como contramedida de las protestas en los los campus universitarios contra la guerra en Gaza, estudiantes internacionales y otros solicitantes de visa deben desde 2025 hacer públicas sus cuentas de redes sociales para el análisis de IA, en virtud de la iniciativa "Catch and Revoke" del secretario de Estado Marco Rubio.
Lo que está sucediendo en EE.UU. y Alemania evoca las detenciones en 2015 de cientos de palestinos por sus publicaciones en Facebook.
Se captan a usuarios a través de procesos de proletarización del conocimiento (Stiegler) y estrategias de desarrollo de depedencias technológicas.
Se favorecen iniciativas Big Tech sobre iniciativas propias más locales.
Operación Gernika: Microsoft + Covid + Escuelas + Ley General de Protección de Datos.
Centros de datos de Amazon y Microsoft en Aragón y Talavera de la Reina con exepciones ambientales.
(Click en Play)
Privacy International - Challenging the Militarization of Tech
Sada Social - Palestinian Digital Rights
7amleh – The Arab Center for the Advancement of Social Media
Crawford, K. (2021). The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Edwards, P. N. (1996). The Closed World: Computers and the Politics of Discourse in Cold War America. MIT Press.
Hables Gray, C. (2025). AI, Sacred Violence, and War—The Case of Gaza.
Foroohar, R.(2019). Don't Be Evil. How Big Tech Betrayed Its Founding Principles. Currency (Penguin Random House).
Guterson, H. (2016). Guterson, H. Drone: Remote Control WarfareMIT Press
Mbembe, A. (2003/2019). Necropolitics. Duke University Press.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
O'Neil, C. (2016). Weapons of Math Destruction. Crown Books
Stiegler, B. (2018). The Neganthropocene. Open Humanities Press.
Suchman, L. (2020). Algorithmic warfare and the reinvention of accuracy. Lancaster University.
Taplin, J. (2017). Move Fast and Break Things: How Facebook, Google, and Amazon Cornered Culture and Undermined Democracy. Little, Brown. ["Don't Be Evil" reference]