Human-in-the-Loop: principio arquitectónico, no checkbox
Human-in-the-Loop en AI Agents: revisión humana impuesta arquitectónicamente. Confidence Routing, reglas de escalación, verificaciones de sesgo.
El problema: HITL como afirmacion de marketing
Casi todos los proveedores de IA afirman que su solucion tiene “Human-in-the-Loop”. En la practica, esto suele significar: en algun lugar del proceso hay un boton de aprobacion. Una persona puede pulsarlo. Pero no tiene que hacerlo.
Eso no es Human-in-the-Loop. Es una aprobacion opcional que desaparece bajo la presion del tiempo. Cuando un gestor procesa 200 documentos al dia y 195 de ellos son correctos, acabara aprobandolos todos sin revisar.
El verdadero Human-in-the-Loop es un principio arquitectónico. Significa: para tipos de decisiones definidos, el agente físicamente no puede actuar de forma autónoma. El flujo de trabajo se pausa. El sistema destino no se contacta. Solo después de la revisión humana y la aprobación documentada continúa el proceso.
De un vistazo - Arquitectura Human-in-the-Loop
- HITL real es un principio arquitectónico, no un botón de aprobación opcional - el agente físicamente no puede eludir la revisión humana para tipos de decisión definidos.
- Tres disparadores: baja confianza del agente, clasificación de alto riesgo (discriminación, consulta del comité) y primera aplicación de nuevas reglas.
- El EU AI Act exige supervisión humana efectiva para sistemas de IA de alto riesgo - los procesos de RRHH entran explícitamente en esta categoría.
- Los acuerdos de empresa se convierten en restricciones técnicas en el Decision Layer que el sistema no puede eludir.
- HITL no resuelve el sesgo en datos de entrenamiento ni escala linealmente - es un componente junto a Audit Trail, Bias Monitoring y controles Cert-Ready.
Según la Comisión Europea (2024), la supervisión humana es obligatoria para todos los sistemas de IA de alto riesgo bajo el EU AI Act, y los procesos de RRHH están explícitamente listados en el Anexo III - lo que convierte el Human-in-the-Loop impuesto arquitectónicamente en una necesidad legal, no en una opción de diseño.
| Disparador HITL | Descripción | Configurable |
|---|---|---|
| Baja confianza | Incertidumbre del agente por debajo del umbral definido | Sí, por cliente |
| Riesgo de discriminación | Decisiones con potencial de resultados discriminatorios | Siempre escalado |
| Materias del comité de empresa | Decisiones sujetas a información y consulta | Siempre escalado |
| Superación de umbral de valor | Importe por encima del límite de procesamiento autónomo | Sí, por cliente |
| Introducción de nueva regla | Primera aplicación de un nuevo conjunto de reglas | Durante fase de aprendizaje |
HITL como principio arquitectónico técnico
En la arquitectura Gosign, Human-in-the-Loop esta implementado en el Decision Layer. La decision sobre cuando se involucra a una persona se basa en tres criterios:
Confidence Routing: Cada decision del agente tiene un valor de confianza. Si la confianza esta por debajo del umbral definido, se escala automaticamente. El umbral es configurable por cliente.
Clasificacion de riesgos: Determinados tipos de decisiones se escalan siempre, independientemente de la confianza. Decisiones con potencial discriminatorio, materias sujetas a informacion y consulta del comite de empresa, superaciones de umbrales de valor.
Escalacion obligatoria basada en reglas: Los nuevos conjuntos de reglas que se aplican por primera vez pasan siempre por una revision humana en la fase de introduccion. Solo despues de una fase de aprendizaje validada el agente pasa al modo autonomo, exactamente para esa regla.
El requisito de Human-in-the-Loop esta impuesto tecnicamente. No hay workaround, no hay atajo, no hay override de administrador. El agente no puede eludir la escalacion.
Como funciona HITL en la practica
Un agente de RRHH procesa una solicitud de pago extraordinario. El Document Agent lee la solicitud. El Knowledge Agent verifica el acuerdo de empresa vigente. El Decision Layer evalua:
Resultado: pago extraordinario aprobable segun acuerdo de empresa, articulo 12, parrafo 3. Confianza: 94%. Riesgo: bajo.
Pero: la decision afecta a un componente retributivo. En la configuracion HITL esta definido: las decisiones de retribucion se escalan siempre, independientemente de la confianza. El flujo de trabajo se pausa.
El gestor responsable ve en el dashboard: la solicitud, la propuesta del agente, la regla aplicada en la version actual, el valor de confianza, el motivo de la escalacion. Revisa, confirma o corrige. Su decision se documenta en el Audit Trail, incluyendo la informacion de que se trata de una decision Human-in-the-Loop.
HITL y el comite de empresa
Human-in-the-Loop es la respuesta tecnica a un requisito organizativo: el derecho de informacion y consulta. En Espana, el Estatuto de los Trabajadores (Real Decreto Legislativo 2/2015) otorga al comite de empresa derechos de informacion y consulta sobre la implantacion de sistemas tecnologicos que afectan a las condiciones laborales (art. 64 ET). Los AI Agents en procesos de RRHH estan sujetos a estos derechos.
El Decision Layer convierte los acuerdos de empresa en constraints tecnicos. Si un acuerdo de empresa establece: “Las decisiones sobre evaluaciones de rendimiento no pueden tomarse de forma completamente automatizada”, esto se implementa como regla HITL en el Decision Layer. El agente no puede eludir esta regla.
El resultado: el comite de empresa puede verificar que sus requisitos se imponen tecnicamente, no solo se prometen organizativamente.
HITL y el EU AI Act
El EU AI Act exige supervision humana (Human Oversight, Art. 14) para sistemas de IA de alto riesgo. Los procesos de RRHH caen explicitamente en la categoria de alto riesgo: reclutamiento, evaluaciones de rendimiento, decisiones de ascenso, retribucion, despido.
Human-in-the-Loop como principio arquitectonico cumple los requisitos del EU AI Act en materia de Human Oversight. No es suficiente tener a una persona en el proceso que teoricamente podria intervenir. El EU AI Act exige una supervision humana efectiva, lo que significa: la persona debe poder comprender la decision, debe poder detenerla y su intervencion debe estar documentada.
En Espana, la AESIA (Agencia Espanola de Supervision de Inteligencia Artificial) supervisara el cumplimiento de estos requisitos. La combinacion del EU AI Act, la Ley 15/2022 para la igualdad de trato y el Estatuto de los Trabajadores crea un marco normativo donde Human-in-the-Loop es esencial, no opcional.
El Decision Layer documenta en cada decision HITL: quien ha revisado, cuando, cual era la propuesta del agente, cual fue la decision humana y si coinciden o difieren.
El limite: lo que HITL no resuelve
Human-in-the-Loop no es la solucion para todos los problemas de gobernanza. En concreto:
HITL no resuelve el problema del sesgo en los datos de entrenamiento. Si el modelo de lenguaje tiene sesgos sistematicos, un gestor no lo detectara en casos individuales. Para eso se necesita un Bias-Monitoring estadistico sobre todas las decisiones del agente.
HITL no escala linealmente. Si el agente toma 10.000 decisiones al dia y el 20% se escala, se necesitan recursos para 2.000 revisiones manuales. Los umbrales HITL deben calibrarse para que la tasa de escalacion sea manejable sin comprometer la gobernanza.
HITL es un componente de la arquitectura de gobernanza, junto con Audit Trail, Bias-Monitoring, versionado de conjuntos de reglas y Cert-Ready Controls.
Mas sobre este tema: Informacion, Consulta y Comite de Empresa
Mas sobre gobernanza: Gobernanza de IA
Agendar reunion. Le mostramos como Human-in-the-Loop se implementa en su arquitectura.

Bert Gogolin
Director General, Gosign
AI Governance Briefing
IA empresarial, regulación e infraestructura - una vez al mes, directamente de mi parte.