3. La Ley de Inteligencia Artificial de la UE: Centralidad humana y extraterritorialidad
Mientras el gobierno federal de los Estados Unidos avanza a paso firme hacia la desregulación en el ámbito civil y el intervencionismo forzoso en el sector de defensa, la Unión Europea consolida su marco normativo a través de la Ley de Inteligencia Artificial (AI Act).
Este monumental instrumento jurídico representa el paradigma inverso al mandato de Washington, fundamentándose en el principio innegociable de «Seguridad por diseño», la evaluación prescriptiva y exhaustiva de riesgos sistémicos, y la protección integral de los derechos humanos, la democracia y el Estado de Derecho.
3.1. Cronología de aplicación y obligaciones para modelos fundacionales
La AI Act, que entró en vigor oficialmente el 1 de agosto de 2024, posee una estructura de implementación escalonada diseñada para permitir la adaptación del mercado mientras se atajan las amenazas más urgentes. A partir del 2 de febrero de 2025, entraron en vigor las disposiciones generales y la prohibición absoluta de prácticas de IA inaceptables, tales como los sistemas de puntuación social, la manipulación cognitiva subliminal y la explotación de vulnerabilidades de grupos específicos.
Un hito crucial se alcanzó el 2 de agosto de 2025, cuando comenzaron a aplicarse las normas de gobernanza y las obligaciones específicas para los modelos de IA de propósito general (GPAI), categoría que engloba a los poderosos Modelos Fundacionales como Claude, GPT, Gemini y Grok.
Bajo este régimen, los proveedores de GPAI están obligados a mantener una documentación técnica exhaustiva, someterse a evaluaciones de riesgos sistémicos si superan ciertos umbrales de capacidad computacional, y proporcionar resúmenes detallados de los datos utilizados en sus fases de entrenamiento.
La totalidad del reglamento, incluyendo el complejo entramado de requisitos de transparencia, supervisión humana y registro para los sistemas clasificados como de «alto riesgo» (HRAI), será plenamente aplicable el 2 de agosto de 2026, con algunas excepciones para sistemas integrados en productos ya regulados que se extienden hasta 2027.
La supervisión de estas normas recae sobre la recién creada Oficina de IA Europea (AI Office), que actúa como un ente regulador centralizado capaz de imponer multas disuasorias.
3.2. El choque jurisdiccional: Derechos fundamentales frente a intereses estatales
Uno de los aspectos más determinantes y conflictivos de la AI Act es su alcance deliberadamente extraterritorial. El Artículo 2 establece con total claridad que las disposiciones del reglamento se aplican a proveedores de sistemas o modelos de IA que se introduzcan en el mercado europeo o cuyo «output» (resultados generados) se utilice dentro de la Unión, con absoluta independencia de si dichos proveedores están establecidos físicamente en un Estado miembro o en un tercer país como Estados Unidos o China.
Esta característica sitúa a los gigantes tecnológicos estadounidenses en una encrucijada legal de gran complejidad. Deben elegir entre someterse a las auditorías europeas de transparencia, a la evaluación rigurosa para la mitigación de sesgos algorítmicos y al respeto irrestricto de los derechos de autor exigidos por Bruselas, o enfrentarse al aislamiento y posibles sanciones en el mercado único europeo.
El choque normativo es inminente y profundo. La directriz de la administración estadounidense que exige que los modelos produzcan «resultados verdaderos» y «objetivos» forzando la exclusión explícita de métricas DEI (lo que en el contexto legal europeo se interpretaría indudablemente como una inducción deliberada de sesgos discriminatorios y una vulneración de los valores de igualdad) colisiona de frente con las exigencias de la UE.
El Artículo 10 de la AI Act exige una gobernanza de datos sumamente rigurosa precisamente para identificar, medir y corregir activamente los sesgos y la discriminación en los sistemas de alto riesgo, lo que hace que cumplir simultáneamente con el mandato de Washington y el reglamento de Bruselas sea una tarea técnica y jurídicamente contradictoria.
Página 3/9




