Ir al contenido
Governance & Compliance

El EU AI Act aplica en todo el mundo.

El EU AI Act no es sobrerregulación europea. Simplemente pone por escrito lo que cada sistema legal ya exige: Explique su decisión.

Bert Gogolin
Bert Gogolin
CEO y fundador 7 min de lectura

Reality Check

Países donde el EU AI Act ya es realidad

Cada país con un sistema legal donde las empresas pueden ser responsabilizadas por decisiones basadas en IA.

Legislación explícita de IA
Derecho laboral/antidiscriminación
Posibilidad de demanda civil
Sin sistema legal funcional

Sin color: Países sin un sistema judicial funcional. Si hacen negocios allí, tienen otros problemas.

Somalia. Sudán del Sur. Yemen. Libia. Siria. - Son las únicas excepciones.

De un vistazo - La accountability de la IA es universal

  • El EU AI Act no inventó las decisiones de IA explicables - fue el primero en codificar el principio específicamente para sistemas de IA. La obligación de explicar decisiones existe en prácticamente todos los sistemas legales del mundo.
  • RRHH es el área de mayor riesgo porque las decisiones de IA sobre personas crean la mayor superficie de ataque legal - desde el sesgo en el screening de CV hasta las evaluaciones de rendimiento automatizadas.
  • Un algoritmo sesgado escala la discriminación a 50.000 decisiones simultáneamente, frente a unas 50 al año de un directivo sesgado.
  • Toda empresa que use IA para decisiones sobre personas necesita dos capas: un Decision Layer (evidencia de cada decisión) y un Governance Layer (reglas del juego).
  • Shadow AI - empleados usando ChatGPT, Copilot y otras herramientas sin governance - es el riesgo más urgente y subestimado para la mayoría de las organizaciones.

Según la Comisión Europea (2024), los sistemas de IA clasificados como alto riesgo bajo el EU AI Act afectarán directamente las decisiones de empleo en más de 6.000 organizaciones en los Estados miembros de la UE. RRHH fue identificado como el área empresarial más frecuentemente afectada según el Anexo III.

La pregunta de 3 millones de euros

Una empresa española utiliza una herramienta de IA para filtrar candidatos. 500 solicitudes entran, 20 salen. Uno de los 480 rechazados demanda. No invoca el EU AI Act. Invoca el Estatuto de los Trabajadores y la Ley 15/2022, de igualdad de trato y no discriminación - una ley que explícitamente prohíbe la discriminación algorítmica.

La pregunta del juez: “Explique cómo se tomó esta decisión.”

Silencio.

No porque la empresa actuara de mala fe. Sino porque nadie en la empresa puede explicar cómo la herramienta de IA produjo esos 480 rechazos. RRHH compró la herramienta. IT la instaló. Y la lógica de decisión está dentro de una caja negra que nadie puede abrir.

Esto no es hipotético. Está sucediendo ahora. Y no solo en España.

La accountability no es un invento europeo

La mayoría de los directivos han archivado mentalmente el EU AI Act como “regulación europea.” Es un error caro. El EU AI Act no inventó el principio de decisiones explicables. Simplemente fue el primero en ponerlo por escrito específicamente para sistemas de IA.

El principio en sí es universal.

España: La Ley 15/2022 es una de las legislaciones más avanzadas del mundo en materia de no discriminación algorítmica. El artículo 23 prohíbe explícitamente la discriminación en el empleo por decisiones automatizadas. El Estatuto de los Trabajadores protege frente a decisiones arbitrarias. Y como miembro de la UE, el EU AI Act se aplica directamente.

América Latina: México tiene la Ley Federal del Trabajo que protege contra la discriminación laboral. Argentina, la Ley de Contrato de Trabajo. Colombia, el Código Sustantivo del Trabajo. Chile está desarrollando regulación específica de IA. Brasil tiene la LGPD Art. 20 con derecho explícito a explicación de decisiones automatizadas. Los tribunales laborales latinoamericanos son cada vez más activos en cuestionar decisiones automatizadas.

Estados Unidos: Title VII del Civil Rights Act prohíbe la discriminación en decisiones de empleo - desde 1964. La EEOC puede exigir en cualquier momento que una empresa explique por qué rechazó a un candidato. En Nueva York, Local Law 144 exige auditorías de sesgo obligatorias para herramientas de IA en reclutamiento desde 2023.

De los 193 estados miembros de la ONU, hay exactamente 5 donde una empresa no puede ser legalmente responsabilizada por una decisión de IA inexplicable. No porque esos países lo permitan - sino porque no tienen un sistema judicial funcional.

El EU AI Act no es sobrerregulación europea. Es la primera respuesta honesta a una pregunta universal.

Región Legislación clave Explicabilidad exigida Decisiones RRHH cubiertas
UE / EspañaEU AI Act, RGPD Art. 22, Ley 15/2022Sí (vinculante)Sí (Anexo III alto riesgo)
EE.UU.Title VII, NYC Local Law 144Sí (antidiscriminación)Sí (decisiones de empleo)
BrasilLGPD Art. 20, CLTSí (derecho a explicación)Sí (tribunales laborales activos)
ChinaAlgorithmic Provisions 2022Sí (transparencia exigida)Sí (decisiones algorítmicas)
América LatinaLeyes laborales nacionalesSí (protección laboral)Sí (discriminación laboral)

Por qué RRHH es el Ground Zero

Pirámide de riesgo: las decisiones de RRHH sobre personas conllevan el mayor riesgo

Las decisiones erróneas de IA sobre productos son molestas. Las decisiones erróneas de IA sobre procesos son costosas. Las decisiones erróneas de IA sobre personas son existenciales - para los afectados y para la empresa.

RRHH es el área donde las decisiones de IA crean la mayor superficie de ataque. Tres escenarios que ya están ocurriendo:

Un screening de CV basado en IA filtra sistemáticamente candidatos con huecos en el currículum. Afectados: padres, personas con enfermedades crónicas, personas que cambian de carrera. En la legislación española, esto constituye discriminación indirecta bajo la Ley 15/2022.

Un análisis de sentimiento en entrevistas por vídeo malinterpreta diferencias culturales en expresión facial como señales negativas. Afectados: candidatos de diferentes contextos culturales. Esto es potencialmente discriminación étnica.

Una herramienta de predicción de rendimiento entrenada con datos históricos de ascensos reproduce los patrones del pasado. Si en el pasado los hombres fueron ascendidos más frecuentemente, la herramienta replica ese patrón. Eso es discriminación de género sistemática - automatizada y escalada.

Cada uno de estos escenarios es ya accionable en la mayoría de los países. No a partir de agosto de 2026 (sujeto al aplazamiento a diciembre de 2027 propuesto en el Digital Omnibus). Ahora.

Y el problema real de la discriminación por IA comparada con la discriminación humana: un directivo sesgado toma quizás 50 decisiones cuestionables al año. Un algoritmo sesgado toma 50.000. Simultáneamente. Consistentemente. De forma demostrable.

Las dos capas que toda empresa necesita

Governance Layer y Decision Layer: arquitectura de dos capas

La solución no es compleja - pero requiere pensamiento arquitectónico. Toda empresa que use IA para decisiones sobre personas necesita dos capas.

El Decision Layer - la evidencia. El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión asistida por IA responde: ¿Qué datos entraron? ¿Qué modelo decidió, en qué versión? ¿Cuál fue el resultado y con qué nivel de confianza? ¿Un humano revisó el resultado antes de que surtiera efecto? ¿Es la decisión reproducible?

Esto no es un lujo técnico. Es el equivalente digital de la contabilidad. Y así como ninguna empresa puede operar sin contabilidad, pronto ninguna empresa podrá operar sin Decision Layer.

El Governance Layer - las reglas del juego. Antes de que se tome la primera decisión de IA: ¿Qué aplicaciones de IA existen siquiera en la empresa? La mayoría de las empresas no lo sabe. ¿Qué tan riesgosa es cada aplicación - no por categorías regulatorias, sino por impacto real en personas? ¿Quién es responsable? Spoiler: “IT” no es una respuesta. ¿Cuándo debe intervenir un humano? ¿Y cómo se audita todo esto?

En España, los comités de empresa y los representantes sindicales tienen un papel relevante en la implantación de sistemas de IA que afectan decisiones laborales. El Real Decreto-ley 9/2021 ya establece derechos de información sobre el uso de algoritmos en el ámbito laboral.

El elefante en la habitación: Shadow AI

Shadow AI iceberg: sobre la línea de agua herramientas oficiales, bajo la línea uso sin control ni auditoría

Y ahora el punto más incómodo. La mayoría de las empresas debaten sobre governance para las herramientas de IA que han desplegado oficialmente. Mientras tanto, sus empleados ya están usando ChatGPT, Claude, Copilot y otras herramientas para preparar decisiones - sin que nadie lo sepa.

Los reclutadores usan ChatGPT para resumir candidaturas. Los jefes de equipo dejan que Copilot redacte recomendaciones de ascenso. L&D genera evaluaciones de desempeño con IA.

Todo esto está pasando. Ahora. Sin Decision Layer. Sin Governance Layer. Sin ninguna trazabilidad.

Y cuando alguien demande, la respuesta no será “la IA decidió” - será peor: “No sabíamos que la IA estaba decidiendo.”

La verdadera pregunta

La pregunta no es: “¿Cumplimos con el EU AI Act?”

La pregunta es: ¿Podemos explicar mañana - en cada país donde operamos - por qué decidimos hoy lo que decidimos?

Quien pueda responder que sí, es automáticamente compliant. Con el EU AI Act. Con el RGPD. Con el Estatuto de los Trabajadores. Con la Ley 15/2022. Con todo lo que venga.

Quien no pueda, no tiene un problema regulatorio. Tiene un problema de governance.

Bert Gogolin

Bert Gogolin

Director General, Gosign

AI Governance Briefing

IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.

Sin spam. Cancelable en cualquier momento. Política de privacidad

EU AI Act Governance RRHH Decision Layer Compliance Shadow AI
Compartir este artículo

Preguntas frecuentes

¿Aplica el EU AI Act fuera de la UE?

Directamente no. Pero el principio detrás - que las empresas deben poder explicar sus decisiones - aplica en prácticamente todos los países con un sistema legal funcional. Desde el Estatuto de los Trabajadores en España hasta la LGPD Art. 20 en Brasil.

¿Qué es un Decision Layer?

El Decision Layer descompone cada proceso en pasos de decisión individuales y define para cada paso: humano, conjunto de reglas o IA. Cada decisión queda documentada - qué datos entraron, qué modelo decidió, con qué nivel de confianza.

¿Por qué RRHH está particularmente afectado?

Porque las decisiones de RRHH se toman sobre personas. La exposición legal ante demandas por discriminación es la más alta, la sensibilidad de los datos es máxima y las consecuencias para los afectados son existenciales.

¿Qué es Shadow AI en el contexto de RRHH?

Shadow AI se refiere al uso no controlado de herramientas de IA como ChatGPT o Copilot por parte de empleados sin conocimiento de la empresa. En RRHH: reclutadores que resumen candidaturas con ChatGPT o jefes de equipo que redactan evaluaciones de desempeño con Copilot - sin rastro de auditoría y sin governance.

¿Qué proceso debería manejar su primer agente?

Deje su email - recibirá su enlace personal de reserva al instante.