Ir al contenido
Governance & Compliance

EU AI Act: IA en RRHH es alto riesgo desde 2026

La IA en RRHH es alto riesgo segun el EU AI Act. Que significa, que obligaciones se aplican y como el Decision Layer cumple los requisitos.

Bert Gogolin
Bert Gogolin
CEO y fundador 6 min de lectura

El EU AI Act clasifica prácticamente todos los sistemas de IA utilizados en procesos de RRHH como alto riesgo. Desde agosto de 2026, estos sistemas deben cumplir requisitos estrictos de gestión de riesgos, transparencia y supervisión humana.

De un vistazo - La IA en RRHH es alto riesgo según el EU AI Act

  • Los sistemas de IA para reclutamiento, evaluaciones de rendimiento, ascensos y despidos se clasifican como alto riesgo según el Anexo III, n.o 4 del EU AI Act.
  • Las prácticas de IA prohibidas (Social Scoring, manipulación) están vigentes desde agosto de 2025. Las obligaciones completas de alto riesgo se aplican desde agosto de 2026 (el Digital Omnibus podría aplazar este plazo a diciembre de 2027).
  • Seis requisitos obligatorios: gestión de riesgos, gobernanza de datos, obligaciones de registro, transparencia, supervisión humana y precisión/robustez.
  • El Decision Layer mapea cada requisito arquitectónicamente: Confidence Routing para riesgos, conjuntos de reglas versionados para gobernanza de datos, Audit Trail para registros, Human-in-the-Loop para supervisión.
  • Sanciones de hasta 35 millones de euros o el 7% de la facturación anual global en las infracciones más graves.

Según una encuesta de PwC (2024), solo el 24% de las empresas que utilizan IA en procesos de RRHH han comenzado la preparación formal para el cumplimiento del EU AI Act, a pesar del plazo de agosto de 2026 para sistemas de alto riesgo.

Artículo EU AI ActRequisitoImplementación en el Decision Layer
Art. 9Sistema de gestión de riesgosConfidence Routing con umbrales configurables
Art. 10Gobernanza de datosConjuntos de reglas versionados con fechas de vigencia
Art. 12Obligaciones de registroAudit Trail inmutable por decisión
Art. 13TransparenciaPortal del Auditor con ruta de decisión completa
Art. 14Supervisión humanaHuman-in-the-Loop impuesto para tipos definidos
Art. 15Precisión y robustezMonitoreo de sesgo y diseño model-agnostic

La clasificacion: la IA en RRHH es alto riesgo

El EU AI Act clasifica como alto riesgo los sistemas de IA utilizados en empleo, gestion de trabajadores y acceso al trabajo por cuenta propia (Anexo III, n.o 4). Esto abarca concretamente:

Sistemas de IA para reclutamiento y seleccion de candidatos. Sistemas de IA que influyen en ascensos, despidos, asignacion de tareas o evaluacion del rendimiento. Sistemas de IA que afectan a las condiciones laborales, incluidos ajustes salariales, clasificaciones y planificacion de turnos.

En resumen: practicamente cualquier agente de IA que prepare, apoye o tome decisiones en procesos de RRHH cae bajo la categoria de alto riesgo.

Los plazos

Desde agosto de 2025 estan en vigor las prohibiciones de practicas de IA inaceptables, incluidos el social scoring y las tecnicas manipulativas. Desde agosto de 2026 (el Digital Omnibus podría aplazar este plazo a diciembre de 2027) se aplican la totalidad de obligaciones para sistemas de IA de alto riesgo. El periodo transitorio no es generoso: las empresas que hoy no esten construyendo estructuras de gobernanza no seran conformes en agosto de 2026.

Que se exige concretamente y como lo cumple el Decision Layer

Los siguientes requisitos se aplican a todo operador de un sistema de IA de alto riesgo en el ambito de RRHH:

Articulo 9 - Sistema de gestion de riesgos: El EU AI Act exige un sistema de gestion de riesgos continuo que identifique, evalqe y mitigue riesgos. En el Decision Layer, esto se implementa mediante Confidence Routing: cada decision del agente se evalqa automaticamente por confianza y categoria de riesgo. Alto riesgo o baja confianza conduce a la escalacion a una persona. Los umbrales son configurables y estan documentados.

Articulo 10 - Gobernanza de datos: Los conjuntos de reglas versionados en el Decision Layer garantizan que la base de datos de cada decision sea trazable. Los convenios colectivos, los acuerdos de empresa y las reglas de compliance tienen versiones, fechas de vigencia y ambitos de aplicacion. En una auditoria se puede trazar que conjunto de reglas, en que version, estaba vigente en el momento de la decision.

Articulo 12 - Obligaciones de registro: El Audit Trail en el Decision Layer genera un registro de datos completo e inmutable para cada decision: entrada, modelo, conjunto de reglas, confianza, decision de enrutamiento, resultado, marca temporal. Automaticamente, no compilado a posteriori.

Articulo 13 - Transparencia: Cada decision del agente es trazable en el Portal del Auditor. Los comites de empresa, los Delegados de Proteccion de Datos (DPD) y los auditores pueden consultar la ruta de decision. Ninguna caja negra.

Articulo 14 - Supervision humana: Human-in-the-Loop es un principio arquitectonico en el Decision Layer, no un ajuste opcional. Para tipos de decisiones definidos, potencial de discriminacion, materias sujetas a consulta del comite de empresa, umbrales de valor, la arquitectura impone la revision humana. Un agente no puede eludir esta revision.

Articulo 15 - Precision, robustez y ciberseguridad: El monitoreo de sesgo comprueba sistematicamente la existencia de patrones discriminatorios. Los umbrales de confianza garantizan que el agente solo decide de forma autonoma con suficiente certeza. El diseno model-agnostic permite cambiar el modelo de lenguaje sin modificar la logica de gobernanza.

eBook gratuito: IA en RRHH

Checklist EU AI Act, framework de decisiones, perspectiva del comité de empresa y evaluación de preparación - el manual de gobernanza para responsables de RRHH.

Descargar gratis

Que significa esto para los departamentos de RRHH

Las empresas que hoy utilizan o planean utilizar IA en procesos de RRHH deben construir estructuras de gobernanza antes de agosto de 2026. Esto significa concretamente:

Logica de decision documentada para cada proceso de RRHH asistido por IA. Mecanismos Human-in-the-Loop tecnicamente impuestos para decisiones con impacto en el personal. Audit Trails auditables que hagan trazable como se tomo cada decision. Monitoreo de sesgo que detecte e informe de patrones discriminatorios.

En Espana, el Estatuto de los Trabajadores (art. 64) otorga a los comites de empresa derechos de informacion y consulta sobre la introduccion de nuevas tecnologias en el lugar de trabajo. Esto se suma a los requisitos del EU AI Act y exige una coordinacion entre ambos marcos normativos: la regulacion europea y la legislacion laboral nacional.

El Decision Layer aborda ambos bloques de requisitos, EU AI Act y derechos de informacion y consulta espanoles, en una sola arquitectura.

-> Decision Layer en detalle

-> Informacion, Consulta y Comite de Empresa

-> HR Agent

Agendar reunion - Le mostramos cuales de sus procesos de RRHH caen bajo la categoria de alto riesgo y como el Decision Layer cumple los requisitos.

Bert Gogolin

Bert Gogolin

Director General, Gosign

AI Governance Briefing

IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.

Sin spam. Cancelable en cualquier momento. Política de privacidad

EU AI Act RRHH Alto riesgo Decision Layer Governance Compliance
Compartir este artículo

Preguntas frecuentes

Los sistemas de IA en RRHH estan sujetos al EU AI Act?

Si. Los sistemas de IA utilizados en empleo, gestion de trabajadores y acceso al trabajo por cuenta propia estan sujetos al Anexo III n.o 4 del EU AI Act y se clasifican como sistemas de IA de alto riesgo.

Cuando entran en vigor las obligaciones de alto riesgo?

Las obligaciones para sistemas de IA de alto riesgo segun el EU AI Act se aplican desde agosto de 2026 (el Digital Omnibus podría aplazar este plazo a diciembre de 2027). Las practicas de IA prohibidas estan vigentes desde agosto de 2025.

Que ocurre si una empresa no cumple las obligaciones?

Multas de hasta 35 millones de euros o el 7% de la facturacion anual global. Ademas, riesgos reputacionales y posibles reclamaciones de responsabilidad. La AEPD y las autoridades competentes supervisaran el cumplimiento en Espana.

Como cumple el Decision Layer los requisitos del AI Act?

El Decision Layer mapea los requisitos arquitectonicamente: gestion de riesgos mediante Confidence Routing, gobernanza de datos mediante conjuntos de reglas versionados, transparencia mediante Audit Trail, supervision humana mediante Human-in-the-Loop.

¿Qué proceso debería manejar su primer agente?

Deje su email - recibirá su enlace personal de reserva al instante.