El EU AI Act aplica en todo el mundo.
El EU AI Act no es sobrerregulación europea. Simplemente pone por escrito lo que cada sistema legal ya exige: Explique su decisión.
Reality Check
Países donde el EU AI Act ya es realidad
Cada país con un sistema legal donde las empresas pueden ser responsabilizadas por decisiones basadas en IA.
Sin color: Países sin un sistema judicial funcional. Si hacen negocios allí, tienen otros problemas.
Somalia. Sudán del Sur. Yemen. Libia. Siria. - Son las únicas excepciones.
De un vistazo - La accountability de la IA es universal
- El EU AI Act no inventó las decisiones de IA explicables - fue el primero en codificar el principio específicamente para sistemas de IA. La obligación de explicar decisiones existe en prácticamente todos los sistemas legales del mundo.
- RRHH es el área de mayor riesgo porque las decisiones de IA sobre personas crean la mayor superficie de ataque legal - desde el sesgo en el screening de CV hasta las evaluaciones de rendimiento automatizadas.
- Un algoritmo sesgado escala la discriminación a 50.000 decisiones simultáneamente, frente a unas 50 al año de un directivo sesgado.
- Toda empresa que use IA para decisiones sobre personas necesita dos capas: un Decision Layer (evidencia de cada decisión) y un Governance Layer (reglas del juego).
- Shadow AI - empleados usando ChatGPT, Copilot y otras herramientas sin governance - es el riesgo más urgente y subestimado para la mayoría de las organizaciones.
Según la Comisión Europea (2024), los sistemas de IA clasificados como alto riesgo bajo el EU AI Act afectarán directamente las decisiones de empleo en más de 6.000 organizaciones en los Estados miembros de la UE. RRHH fue identificado como el área empresarial más frecuentemente afectada según el Anexo III.
La pregunta de 3 millones de euros
Una empresa española utiliza una herramienta de IA para filtrar candidatos. 500 solicitudes entran, 20 salen. Uno de los 480 rechazados demanda. No invoca el EU AI Act. Invoca el Estatuto de los Trabajadores y la Ley 15/2022, de igualdad de trato y no discriminación - una ley que explícitamente prohíbe la discriminación algorítmica.
La pregunta del juez: “Explique cómo se tomó esta decisión.”
Silencio.
No porque la empresa actuara de mala fe. Sino porque nadie en la empresa puede explicar cómo la herramienta de IA produjo esos 480 rechazos. RRHH compró la herramienta. IT la instaló. Y la lógica de decisión está dentro de una caja negra que nadie puede abrir.
Esto no es hipotético. Está sucediendo ahora. Y no solo en España.
La accountability no es un invento europeo
La mayoría de los directivos han archivado mentalmente el EU AI Act como “regulación europea.” Es un error caro. El EU AI Act no inventó el principio de decisiones explicables. Simplemente fue el primero en ponerlo por escrito específicamente para sistemas de IA.
El principio en sí es universal.
España: La Ley 15/2022 es una de las legislaciones más avanzadas del mundo en materia de no discriminación algorítmica. El artículo 23 prohíbe explícitamente la discriminación en el empleo por decisiones automatizadas. El Estatuto de los Trabajadores protege frente a decisiones arbitrarias. Y como miembro de la UE, el EU AI Act se aplica directamente.
América Latina: México tiene la Ley Federal del Trabajo que protege contra la discriminación laboral. Argentina, la Ley de Contrato de Trabajo. Colombia, el Código Sustantivo del Trabajo. Chile está desarrollando regulación específica de IA. Brasil tiene la LGPD Art. 20 con derecho explícito a explicación de decisiones automatizadas. Los tribunales laborales latinoamericanos son cada vez más activos en cuestionar decisiones automatizadas.
Estados Unidos: Title VII del Civil Rights Act prohíbe la discriminación en decisiones de empleo - desde 1964. La EEOC puede exigir en cualquier momento que una empresa explique por qué rechazó a un candidato. En Nueva York, Local Law 144 exige auditorías de sesgo obligatorias para herramientas de IA en reclutamiento desde 2023.
De los 193 estados miembros de la ONU, hay exactamente 5 donde una empresa no puede ser legalmente responsabilizada por una decisión de IA inexplicable. No porque esos países lo permitan - sino porque no tienen un sistema judicial funcional.
El EU AI Act no es sobrerregulación europea. Es la primera respuesta honesta a una pregunta universal.
| Región | Legislación clave | Explicabilidad exigida | Decisiones RRHH cubiertas |
|---|---|---|---|
| UE / España | EU AI Act, RGPD Art. 22, Ley 15/2022 | Sí (vinculante) | Sí (Anexo III alto riesgo) |
| EE.UU. | Title VII, NYC Local Law 144 | Sí (antidiscriminación) | Sí (decisiones de empleo) |
| Brasil | LGPD Art. 20, CLT | Sí (derecho a explicación) | Sí (tribunales laborales activos) |
| China | Algorithmic Provisions 2022 | Sí (transparencia exigida) | Sí (decisiones algorítmicas) |
| América Latina | Leyes laborales nacionales | Sí (protección laboral) | Sí (discriminación laboral) |
Por qué RRHH es el Ground Zero
Las decisiones erróneas de IA sobre productos son molestas. Las decisiones erróneas de IA sobre procesos son costosas. Las decisiones erróneas de IA sobre personas son existenciales - para los afectados y para la empresa.
RRHH es el área donde las decisiones de IA crean la mayor superficie de ataque. Tres escenarios que ya están ocurriendo:
Un screening de CV basado en IA filtra sistemáticamente candidatos con huecos en el currículum. Afectados: padres, personas con enfermedades crónicas, personas que cambian de carrera. En la legislación española, esto constituye discriminación indirecta bajo la Ley 15/2022.
Un análisis de sentimiento en entrevistas por vídeo malinterpreta diferencias culturales en expresión facial como señales negativas. Afectados: candidatos de diferentes contextos culturales. Esto es potencialmente discriminación étnica.
Una herramienta de predicción de rendimiento entrenada con datos históricos de ascensos reproduce los patrones del pasado. Si en el pasado los hombres fueron ascendidos más frecuentemente, la herramienta replica ese patrón. Eso es discriminación de género sistemática - automatizada y escalada.
Cada uno de estos escenarios es ya accionable en la mayoría de los países. No a partir de agosto de 2026 (sujeto al aplazamiento a diciembre de 2027 propuesto en el Digital Omnibus). Ahora.
Y el problema real de la discriminación por IA comparada con la discriminación humana: un directivo sesgado toma quizás 50 decisiones cuestionables al año. Un algoritmo sesgado toma 50.000. Simultáneamente. Consistentemente. De forma demostrable.
Las dos capas que toda empresa necesita
La solución no es compleja - pero requiere pensamiento arquitectónico. Toda empresa que use IA para decisiones sobre personas necesita dos capas.
El Decision Layer - la evidencia. El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión asistida por IA responde: ¿Qué datos entraron? ¿Qué modelo decidió, en qué versión? ¿Cuál fue el resultado y con qué nivel de confianza? ¿Un humano revisó el resultado antes de que surtiera efecto? ¿Es la decisión reproducible?
Esto no es un lujo técnico. Es el equivalente digital de la contabilidad. Y así como ninguna empresa puede operar sin contabilidad, pronto ninguna empresa podrá operar sin Decision Layer.
El Governance Layer - las reglas del juego. Antes de que se tome la primera decisión de IA: ¿Qué aplicaciones de IA existen siquiera en la empresa? La mayoría de las empresas no lo sabe. ¿Qué tan riesgosa es cada aplicación - no por categorías regulatorias, sino por impacto real en personas? ¿Quién es responsable? Spoiler: “IT” no es una respuesta. ¿Cuándo debe intervenir un humano? ¿Y cómo se audita todo esto?
En España, los comités de empresa y los representantes sindicales tienen un papel relevante en la implantación de sistemas de IA que afectan decisiones laborales. El Real Decreto-ley 9/2021 ya establece derechos de información sobre el uso de algoritmos en el ámbito laboral.
El elefante en la habitación: Shadow AI
Y ahora el punto más incómodo. La mayoría de las empresas debaten sobre governance para las herramientas de IA que han desplegado oficialmente. Mientras tanto, sus empleados ya están usando ChatGPT, Claude, Copilot y otras herramientas para preparar decisiones - sin que nadie lo sepa.
Los reclutadores usan ChatGPT para resumir candidaturas. Los jefes de equipo dejan que Copilot redacte recomendaciones de ascenso. L&D genera evaluaciones de desempeño con IA.
Todo esto está pasando. Ahora. Sin Decision Layer. Sin Governance Layer. Sin ninguna trazabilidad.
Y cuando alguien demande, la respuesta no será “la IA decidió” - será peor: “No sabíamos que la IA estaba decidiendo.”
La verdadera pregunta
La pregunta no es: “¿Cumplimos con el EU AI Act?”
La pregunta es: ¿Podemos explicar mañana - en cada país donde operamos - por qué decidimos hoy lo que decidimos?
Quien pueda responder que sí, es automáticamente compliant. Con el EU AI Act. Con el RGPD. Con el Estatuto de los Trabajadores. Con la Ley 15/2022. Con todo lo que venga.
Quien no pueda, no tiene un problema regulatorio. Tiene un problema de governance.

Bert Gogolin
Director General, Gosign
AI Governance Briefing
IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.