La inteligencia artificial acelera la manera en que los ejércitos en Oriente Medio identifican y atacan objetivos, generando un volumen sin precedentes de coordenadas de bombardeo mientras erosiona los marcos legales destinados a proteger a los civiles. El uso por parte de Israel de sistemas de selección de objetivos impulsados por IA en Gaza ha recibido duras críticas de funcionarios de las Naciones Unidas, que afirman que la tecnología contribuyó a la destrucción sistemática de viviendas civiles a una escala que describen como «domicidio». A medida que empresas tecnológicas comerciales suministran los modelos subyacentes y la infraestructura en la nube, la cuestión de quién asume la responsabilidad por la destrucción resultante no tiene una respuesta clara, y los esfuerzos internacionales para regular los sistemas de armas autónomas siguen estancados.
Selección de objetivos impulsada por IA y la escala de la destrucción
Las Fuerzas de Defensa de Israel operan un sistema de IA conocido como «Gospel», o Habsora en hebreo, diseñado para producir objetivos a gran velocidad, según una descripción citada de los propios materiales del ejército. Esa caracterización, detallada por The Guardian a finales de 2023, captura la tensión central: la rapidez y el volumen en la generación de objetivos pueden superar la capacidad de los operadores humanos para verificar cada ataque conforme a las leyes de los conflictos armados. El sistema procesa grandes conjuntos de datos, incluidas fuentes de vigilancia e inteligencia de señales, para señalar edificios y ubicaciones como posibles objetivos militares.
Lo que distingue esto de los métodos de selección de objetivos anteriores es el rendimiento. El análisis de inteligencia tradicional requería equipos de especialistas trabajando durante días o semanas para desarrollar un único paquete de objetivos. Gospel comprime ese cronograma de forma drástica, alimentando una canalización que puede generar muchas más coordenadas de ataque que en ningún conflicto previo. Cuanto más logra el sistema su objetivo técnico de identificación rápida, mayor presión ejerce sobre las etapas de revisión humana que deberían garantizar la legalidad y la proporcionalidad.
El resultado, según relatores especiales de la ONU, ha sido la destrucción masiva de infraestructuras civiles en Gaza. En una declaración de abril de 2024, esos expertos lamentaron el uso de lo que se dice que es IA para cometer domicidio, empleando el término para describir la demolición deliberada y a gran escala de viviendas y áreas residenciales. Sostuvieron que el patrón de ataques apuntaba a la destrucción sistemática del entorno edificado más que a daños incidentales alrededor de objetivos militares específicos, y pidieron un enfoque reparador para la reconstrucción que reconozca el papel de las tecnologías emergentes en permitir tal devastación.
La IA comercial entra en el campo de batalla
La tubería que conecta Silicon Valley con las líneas del frente pasa por contratos de computación en la nube y licencias de modelos de IA. The Associated Press informó que Israel usa modelos de IA fabricados en EE. UU. en sus operaciones militares, con tecnología de Microsoft y OpenAI desempeñando un papel en la toma de decisiones en el campo de batalla. Según ese reportaje, unidades israelíes han usado modelos de lenguaje a gran escala y herramientas relacionadas para ayudar en tareas como análisis de imágenes, ordenación de datos y planificación operativa, integrando sistemas comerciales en los flujos de trabajo militares.
Una investigación separada de AP encontró que Microsoft vendió servicios avanzados de IA y nube al ejército israelí durante la guerra en Gaza. La compañía reconoció esas ventas pero negó que su IA fuera usada para perjudicar a personas en Gaza, argumentando que sus contratos se centraban en aplicaciones defensivas y administrativas. La empresa también subrayó que no controla cómo los clientes configuran y despliegan sus herramientas de propósito general una vez que se les concede acceso.
Esa negación pone de manifiesto un problema estructural en la rendición de cuentas. Un proveedor de la nube puede vender potencia de cálculo y acceso a modelos sin controlar cómo el usuario final aplica la salida. La posición de Microsoft, esencialmente, es que suministró herramientas pero no dirigió su uso. Los críticos sostienen que este enfoque permite a los proveedores beneficiarse de contratos militares al tiempo que se distancian de las consecuencias, incluso cuando sus productos están entretejidos en la misma infraestructura digital que sustenta operaciones ofensivas.
La cobertura de AP incluyó ejemplos de cómo la IA puede entrar en el proceso de selección de objetivos, ilustrando la dificultad práctica de trazar una línea clara entre un producto comercial y una decisión militar letal. Una vez que un modelo de propósito general se ajusta con datos clasificados y se conecta a fuentes de vigilancia, pasa a formar parte de la cadena de ataque, incluso si su comercialización original enfatizaba productividad o asistencia en investigación.
La implicación de grandes empresas tecnológicas estadounidenses también complica la política exterior de EE. UU. Los controles de exportación y los acuerdos de uso final rigen las transferencias de armas convencionales, pero los modelos de IA y las suscripciones en la nube ocupan una zona gris. Ningún marco regulatorio existente define claramente cuándo una herramienta de IA de propósito general se convierte en componente de un sistema de armas, y los proveedores tienen poco incentivo para buscar esa claridad por su cuenta. El resultado es un desfase en las políticas en el que las compañías pueden ampliar sus portafolios de defensa más rápido de lo que los gobiernos pueden adaptar los mecanismos de supervisión.
Líneas difusas de responsabilidad
El Secretario General de la ONU, António Guterres, ha abordado directamente esta brecha. En un encuentro con la prensa sobre Gaza en abril de 2024, expresó su preocupación por los informes del uso de IA para la identificación de objetivos y vinculó la rapidez y la escala de las operaciones habilitadas por IA con lo que llamó un borroneo de la responsabilidad. Sus comentarios reflejaron una inquietud creciente entre los funcionarios internacionales: cuando un algoritmo genera un objetivo, un comandante aprueba el ataque y una empresa tecnológica provee el modelo y la infraestructura subyacentes, la responsabilidad legal se fragmenta entre múltiples actores y jurisdicciones.
El derecho internacional humanitario tradicionalmente asigna la responsabilidad al comandante que ordena un ataque y al Estado que despliega el arma. Pero la introducción de la IA en la cadena de ataque plantea preguntas para las que la doctrina existente no fue diseñada. Si un algoritmo identifica erróneamente un edificio residencial como objetivo militar, y un operador humano aprueba el ataque basándose en la recomendación del sistema sin verificación independiente, ¿dónde reside la culpa? ¿Con el desarrollador del software que diseñó el modelo, la oficina de adquisiciones militares que lo integró, el oficial al mando que confió en la salida o el operador que ejecutó la orden?
Cada actor puede señalar a otro eslabón en la cadena. Los desarrolladores pueden argumentar que suministraron una herramienta con limitaciones documentadas; los militares pueden afirmar que siguieron procedimientos internos y se apoyaron en la mejor tecnología disponible; los líderes políticos pueden insistir en que carecían de conocimiento detallado sobre decisiones específicas de selección de objetivos. Esta difusión de responsabilidades dificulta la aplicación de los mecanismos existentes de rendición de cuentas, desde el derecho penal interno hasta las investigaciones internacionales.
La mayoría de los debates políticos dominantes todavía tratan esto como un problema de gobernanza futura. Esa visión subestima la urgencia. La brecha de responsabilidad ya se está manifestando en Gaza, donde se han ejecutado listas de objetivos generadas por IA y barrios enteros han sido reducidos a escombros. Las familias cuyas viviendas fueron destruidas no pueden rastrear con facilidad una línea clara desde el cráter de la explosión hasta un programador, contratista o comandante en particular. La ley no solo va detrás de la tecnología; está luchando por mapear la responsabilidad sobre un sistema sociotécnico diseñado para ser distribuido y opaco.
La regulación se estanca mientras surgen nuevas amenazas
Los esfuerzos por establecer normas internacionales para sistemas de armas autónomas han avanzado muy poco. Un análisis del Lieber Institute en West Point señala que las grandes potencias militares se oponen a regular jurídicamente de forma vinculante dichos sistemas, lo que reduce las perspectivas de un tratado comprensivo. Estados Unidos, Rusia y China, que lideran la investigación y el despliegue militar en IA, han favorecido principios no vinculantes y medidas técnicas de fomento de la confianza sobre restricciones legales estrictas.
Este vacío regulatorio coincide con un desarrollo nuevo y peligroso: la infraestructura física que alimenta la IA militar en sí misma se está convirtiendo en un objetivo. Un análisis de The Guardian de marzo de 2026 informó que los centros de datos están emergiendo como activos estratégicos por derecho propio, citando instalaciones iraníes como ejemplos tempranos de cómo las granjas de servidores y los centros de nube pueden verse arrastrados a conflictos regionales. Dado que esos centros alojan cargas de trabajo tanto civiles como militares, los ataques contra ellos corren el riesgo de provocar efectos en cascada en los sistemas financieros, los servicios de salud y las redes de comunicaciones.
La convergencia de estas tendencias (selección de objetivos impulsada por IA, infraestructura comercial incrustada en la guerra y regulación estancada) crea un bucle de retroalimentación de inestabilidad. A medida que más ejércitos dependen de la IA basada en la nube para planificar y ejecutar operaciones, los adversarios obtienen incentivos para interrumpir o destruir los centros de datos, los enlaces de fibra y las redes satelitales que hacen posible esas capacidades. Las poblaciones civiles enfrentan entonces una exposición doble: primero a campañas de bombardeo habilitadas por IA y, segundo, a ataques contra las utilidades digitales que sustentan la vida moderna.
Romper este ciclo requerirá algo más que declaraciones éticas voluntarias de las empresas tecnológicas o actualizaciones incrementales de la doctrina militar. Hará falta nuevos instrumentos legales que consideren a los sistemas de IA y a la infraestructura que los sostiene como partes integrales del espacio de batalla, sujetas a obligaciones y restricciones específicas. También exigirá una mayor transparencia por parte de los Estados y las corporaciones sobre cómo se desarrollan, prueban y despliegan estas herramientas, para que la rendición de cuentas no se desvanezca en las grietas entre el código, los contratos y las cadenas de mando.
Por ahora, Gaza se erige como un caso ejemplar de lo rápido que la IA puede amplificar la capacidad destructiva de las fuerzas convencionales mientras supera a las instituciones destinadas a contenerlas. Las mismas tecnologías que prometen eficiencia y precisión en teoría han, en la práctica, permitido una escala de devastación urbana que los expertos de la ONU describen como «domicidio». A menos que la ley y la política se pongan al día, el patrón observado allí puede convertirse en un modelo para futuros conflictos, en el que la responsabilidad esté en todas partes y en ninguna, y los sistemas de inteligencia más avanzados se combinen con algunos de los sistemas de rendición de cuentas más débiles.