Pular para o conteúdo
Governance & Compliance

Human-in-the-Loop - Princípio arquitetônico, não checkbox

Human-in-the-Loop em AI Agents significa revisão humana imposta pela arquitetura. Confidence Routing, regras de escalação, verificações de viés.

Bert Gogolin
Bert Gogolin
CEO e fundador 7 min de leitura

O problema: HITL como afirmação de marketing

Praticamente todo fornecedor de IA afirma que sua solução tem “Human-in-the-Loop”. Na prática, isso frequentemente significa: em algum lugar do processo existe um botão de aprovação. Um ser humano pode clicar nele. Mas não é obrigado.

Isso não é Human-in-the-Loop. É uma aprovação opcional que desaparece sob pressão de tempo. Quando o analista processa 200 documentos por dia e 195 estão corretos, em algum momento ele vai aprovar todos sem verificar.

Human-in-the-Loop de verdade é um princípio arquitetônico. Significa: para tipos de decisão definidos, o agente não pode fisicamente agir de forma autônoma. O workflow pausa. O sistema-alvo não é acessado. Somente após revisão humana e aprovação documentada o processo continua.

Resumo - Arquitetura Human-in-the-Loop

  • HITL real é um princípio arquitetônico, não um botão de aprovação opcional - o agente fisicamente não pode contornar a revisão humana para tipos de decisão definidos.
  • Três gatilhos: baixa confiança do agente, classificação de alto risco (discriminação, participação dos trabalhadores) e primeira aplicação de novas regras.
  • O EU AI Act exige supervisão humana efetiva para sistemas de IA de alto risco - processos de RH se enquadram explicitamente nessa categoria.
  • Acordos de empresa se tornam restrições técnicas no Decision Layer que o sistema não pode contornar.
  • HITL não resolve viés nos dados de treinamento nem escala linearmente - é um componente ao lado de Audit Trail, Bias Monitoring e controles Cert-Ready.

Segundo a Comissão Europeia (2024), a supervisão humana é obrigatória para todos os sistemas de IA de alto risco sob o EU AI Act, e processos de RH estão explicitamente listados no Anexo III - o que torna o Human-in-the-Loop arquitetonicamente imposto uma necessidade legal, não uma escolha de design.

Gatilho HITLDescriçãoConfigurável
Baixa confiançaIncerteza do agente abaixo do limiar definidoSim, por cliente
Risco de discriminaçãoDecisões com potencial discriminatórioSempre escalado
Temas de participação dos trabalhadoresDecisões sujeitas a consulta dos representantesSempre escalado
Ultrapassagem de limiar de valorValor acima do limite de processamento autônomoSim, por cliente
Introdução de nova regraPrimeira aplicação de novo conjunto de regrasDurante fase de aprendizagem

HITL como princípio arquitetônico técnico

Na arquitetura Gosign, o Human-in-the-Loop é implementado no Decision Layer. A decisão sobre quando um ser humano é incluído baseia-se em três critérios:

Confidence Routing: Cada decisão do agente tem um valor de confiança. Se a confiança está abaixo do limiar definido, a escalação é automática. O limiar é configurável por cliente.

Classificação de risco: Determinados tipos de decisão são sempre escalados, independentemente da confiança. Decisões com potencial discriminatório, temas que afetam direitos dos trabalhadores, ultrapassagem de limites de valor.

Escalação obrigatória baseada em regras: Novos conjuntos de regras aplicados pela primeira vez sempre passam por revisão humana na fase de implantação. Somente após uma fase de aprendizagem validada o agente passa para o modo autônomo - exclusivamente para essa regra.

O requisito de Human-in-the-Loop é imposto tecnicamente. Não existe workaround, atalho ou override administrativo. O agente não pode contornar a escalação.

Como HITL funciona na prática

Um agente de RH processa uma solicitação de pagamento especial. O Document Agent lê a solicitação. O Knowledge Agent verifica o ACT (Acordo Coletivo de Trabalho) (PT: Acordo de empresa) vigente. O Decision Layer avalia:

Resultado: pagamento especial aprovável conforme ACT, cláusula 12, parágrafo 3. Confiança: 94%. Risco: baixo.

Porém: a decisão envolve um componente de remuneração. Na configuração HITL, está definido: decisões de remuneração são sempre escaladas, independentemente da confiança. O workflow pausa.

O analista responsável vê no dashboard: a solicitação, a proposta do agente, a regra aplicada na versão atual, o valor de confiança, o motivo da escalação. Ele verifica, confirma ou corrige. Sua decisão é documentada no Audit Trail - incluindo a informação de que se trata de uma decisão Human-in-the-Loop.

HITL e participação dos trabalhadores

Human-in-the-Loop é a resposta técnica a uma exigência organizacional: a participação dos trabalhadores. No Brasil, sindicatos e CRE (PT: Comissão de Trabalhadores) têm direito de participação na implantação de sistemas de IA, conforme previsto na CLT (PT: Código do Trabalho) e nas convenções coletivas, especialmente quando sistemas técnicos monitoram o comportamento ou o desempenho dos trabalhadores.

O Decision Layer transforma ACTs (Acordos Coletivos de Trabalho) em restrições técnicas. Se um ACT determina: “Decisões sobre avaliações de desempenho não podem ser tomadas de forma totalmente automatizada” - isso é implementado como regra HITL no Decision Layer. O agente não pode contornar essa regra.

O resultado: a representação dos trabalhadores pode verificar que suas exigências são impostas tecnicamente - não apenas prometidas organizacionalmente.

HITL e EU AI Act

O EU AI Act exige para sistemas de IA de alto risco supervisão humana (Human Oversight, Art. 14). Processos de RH se enquadram explicitamente na categoria de alto risco: recrutamento, avaliações de desempenho, decisões de promoção, remuneração, desligamento.

Human-in-the-Loop como princípio arquitetônico atende os requisitos do EU AI Act para Human Oversight. Não é suficiente ter um ser humano no processo que teoricamente poderia intervir. O EU AI Act exige supervisão humana efetiva - isso significa: o ser humano deve poder compreender a decisão, deve poder interrompê-la e sua intervenção deve ser documentada.

O Decision Layer documenta em cada decisão HITL: quem revisou? Quando? Qual foi a proposta do agente? Qual foi a decisão humana? Estão em concordância ou divergem?

O limite: o que HITL não resolve

Human-in-the-Loop não é solução para todos os problemas de governance. Concretamente:

HITL não resolve o problema de viés nos dados de treinamento. Se o modelo de linguagem é sistematicamente tendencioso, um analista não detecta isso em casos individuais. Para isso é necessário Bias Monitoring estatístico sobre todas as decisões do agente.

HITL não escala linearmente. Se o agente toma 10.000 decisões por dia e 20% são escaladas, são necessários recursos para 2.000 revisões manuais. Os limiares HITL devem ser calibrados para que a taxa de escalação permaneça gerenciável sem comprometer a governance.

HITL é um componente da arquitetura de governance - junto com Audit Trail, Bias Monitoring, versionamento de conjuntos de regras e controles Cert-Ready.

Mais informações: Decision Layer explicado | Agentes de IA - Guia Enterprise

Agendar reunião - Mostramos como Human-in-the-Loop funciona na sua arquitetura.

Bert Gogolin

Bert Gogolin

Diretor Executivo, Gosign

AI Governance Briefing

IA empresarial, regulamentação e infraestrutura - uma vez por mês, diretamente de mim.

Sem spam. Cancelável a qualquer momento. Política de privacidade

Human-in-the-Loop Governance Participação dos Trabalhadores EU AI Act Decision Layer
Compartilhar este artigo

Perguntas frequentes

O que significa Human-in-the-Loop em IA?

Human-in-the-Loop (HITL) designa a inclusão arquitetonicamente imposta de um ser humano em determinadas decisões de IA. No contexto enterprise, é um princípio arquitetônico técnico que garante que tipos de decisão definidos não alcancem o sistema-alvo sem revisão humana.

Quando um ser humano deve intervir?

Em decisões com potencial discriminatório, em temas que afetam o direito de participação dos trabalhadores via sindicatos e CRE (PT: Comissão de Trabalhadores), em decisões acima de limites de valor definidos, na primeira aplicação de novas regras e em baixa confiança do agente.

O Human-in-the-Loop é exigido pelo EU AI Act?

Sim. O EU AI Act exige supervisão humana (Human Oversight) para sistemas de IA de alto risco. Processos de RH como recrutamento, avaliações de desempenho e decisões de remuneração se enquadram nessa categoria. O EU AI Act não se aplica diretamente no Brasil, exceto para empresas com operações na UE. O PL 2338/2023 propõe requisitos semelhantes. (PT: O EU AI Act aplica-se diretamente em Portugal como membro da UE.)

Qual a diferença entre HITL e uma simples aprovação manual?

Na aprovação manual opcional, o colaborador pode clicar em aprovar sem realmente verificar. No HITL como princípio arquitetônico, o workflow pausa obrigatoriamente. O sistema-alvo não é acessado. Somente após revisão humana documentada o processo continua. A escalação não pode ser contornada pelo agente.

Qual processo seu primeiro agente deveria gerenciar?

Deixe seu email - você receberá seu link pessoal de agendamento instantaneamente.