7. El vacío regulatorio: La excepción militar de la Ley de IA y el Marco TAID
Mientras Europa se esfuerza por erigirse como el faro global de la regulación ética a través de su ambiciosa AI Act, el conflicto entre el Pentágono y Anthropic, así como el uso de IA en la crisis de Venezuela, arrojan una luz inclemente sobre el mayor punto ciego de la legislación comunitaria: la clamorosa ausencia de jurisdicción sobre las aplicaciones bélicas y de seguridad del Estado.
7.1. Las críticas de la sociedad civil al Recital 24 y el Artículo 2(3)
A pesar de la exhaustividad y el rigor que la AI Act demuestra en el ámbito civil, comercial y de orden público, el texto legal consagra una vulnerabilidad estratégica severa en su diseño fundacional. El Recital 24 y el Artículo 2(3) de la regulación establecen de manera explícita e inequívoca que la directiva no es aplicable a los sistemas de Inteligencia Artificial que sean desarrollados o utilizados de forma exclusiva con fines militares, de defensa o de seguridad nacional, «independientemente del tipo de entidad que lleve a cabo dichas actividades».
Esta profunda exención jurídica, motivada primariamente por el respeto escrupuloso a las competencias soberanas de los Estados miembros bajo los Tratados de la Unión Europea (TEU), ha sido objeto de críticas implacables por parte de organizaciones de derechos humanos y entes como el Centro Europeo para la Ley de Organizaciones Sin Fines de Lucro (ECNL).
Los detractores jurídicos argumentan con base que los sistemas algorítmicos que en el ámbito civil están clasificados como de «riesgo inaceptable» y, por ende, prohibidos categóricamente —tales como las redes de identificación biométrica remota en tiempo real en espacios públicos (vigilancia masiva) o los sistemas predictivos de puntuación social— pueden ser legalmente «resucitados», adaptados y desplegados bajo el ambiguo e inescrutable paraguas de la «seguridad nacional».
Al invocar esta cláusula, los Estados pueden operar estos sistemas invasivos eximiéndose de cualquiera de las onerosas salvaguardas de transparencia, trazabilidad o supervisión humana significativa («human agency») que la ley exige rigurosamente al sector corporativo y a las administraciones públicas ordinarias.
En el contexto geopolítico actual, dominado por el precedente del Pentágono forzando a contratistas a eliminar sus líneas rojas éticas, esta exención revela una realidad jurídica incómoda: si un Estado miembro de la UE, o una coalición de ellos, decidiera emular la agresiva doctrina militar de Washington y forzar la integración de modelos de lenguaje europeos en sistemas tácticos de vigilancia masiva o armamento autónomo invocando imperativos de seguridad nacional, la Comisión Europea y su nueva Oficina de IA carecerían por completo de herramientas legales o jurisdicción bajo la AI Act para impedirlo u auditarlo.
Esta dinámica amenaza con sumir el desarrollo de la IA militar europea en un limbo regulatorio, regido fragmentariamente por los difusos límites del derecho internacional humanitario y las agendas individuales de defensa de los Veintisiete.
7.2. Los siete requisitos éticos de la Agencia Europea de Defensa (TAID)
Consciente de este peligroso vacío legal y del riesgo reputacional de una carrera armamentística algorítmica sin control, el ecosistema institucional de defensa europeo, liderado por la Agencia Europea de Defensa (EDA), ha intentado establecer barreras de contención conceptuales. En mayo de 2025, la EDA publicó el fundamental Libro Blanco TAID (Trustworthiness for AI in Defence), diseñado para traducir el paradigma de la IA humanocéntrica civil a las duras realidades del campo de batalla multidominio.
El marco TAID articula un enfoque de Ingeniería Basada en Valores e instaura siete requisitos éticos interconectados que deben respetarse a lo largo de todo el ciclo de vida de los sistemas autónomos e inteligentes militares. Estos incluyen:
- La garantía de agencia y supervisión humana (impidiendo la delegación absoluta de decisiones letales a máquinas).
- La robustez y seguridad técnica (resiliencia frente a hackeos adversarios).
- La gobernanza de datos y privacidad.
- La transparencia (explicabilidad de las decisiones algorítmicas).
- La no discriminación (mitigación de sesgos en inteligencia geoespacial y targeting),
- El bienestar social y la rendición de cuentas (auditabilidad).
A nivel operativo, el documento define propiedades cruciales para la adopción militar europea, tales como la Gobernabilidad (la capacidad innegociable de los comandantes para detectar comportamientos emergentes no deseados y desactivar el sistema algorítmico) y el Control Humano Significativo (Meaningful Human Control).
Sin embargo, la gran debilidad de este marco es su naturaleza: a diferencia de las severas multas y prohibiciones vinculantes que la Comisión puede imponer a empresas privadas bajo la AI Act, las recomendaciones de la EDA carecen de fuerza coercitiva supranacional y dependen de la buena voluntad y las doctrinas operacionales internas de los ministerios de defensa nacionales, limitando severamente su capacidad para prevenir abusos a nivel continental.
| Marco Regulatorio / Ético | Jurisdicción y Ámbito de Aplicación | Mecanismo de Obligatoriedad y Sanción |
| EU AI Act (Ley de IA) | Civil, comercial y administraciones públicas. Extraterritorial. | Ley vinculante de la UE. Multas multimillonarias por la Oficina de IA. |
| Excepción Militar (Art 2.3) | Sistemas usados exclusivamente para defensa y seguridad nacional. | Ninguna aplicabilidad civil. Supeditado al derecho internacional. |
| EDA TAID Framework | Aplicaciones militares de los Estados miembros de la UE. | Guía ética, recomendaciones de «soft law». Sin capacidad sancionadora. |
| Directrices EE.UU. (OMB) | Agencias federales y contratistas del Departamento de Guerra de EE.UU. | Obligatoriedad contractual; pérdida de licitaciones; riesgo de confiscación (DPA). |
Tabla 3: Estructura de la gobernanza de la Inteligencia Artificial en 2026, contrastando la robustez del marco civil europeo con su impotencia en el ámbito militar, en comparación con el rígido esquema de cumplimiento contractual y coerción en el aparato de defensa estadounidense.
Página 7/9




