Pular para o conteúdo
Governance & Compliance

EU AI Act e RH: O que muda para IA em decisões de pessoal

IA em RH e alto risco pelo EU AI Act. O que isso significa, quais obrigações se aplicam e como o Decision Layer atende aos requisitos.

Bert Gogolin
Bert Gogolin
CEO e fundador 6 min de leitura

O EU AI Act classifica praticamente todos os sistemas de IA utilizados em processos de RH como alto risco. A partir de agosto de 2026, esses sistemas devem atender requisitos rigorosos de gestão de riscos, transparência e supervisão humana.

Resumo - IA em RH é alto risco pelo EU AI Act

  • Sistemas de IA para recrutamento, avaliações de desempenho, promoções e demissões são classificados como alto risco conforme o Anexo III, n.o 4 do EU AI Act.
  • Práticas de IA proibidas (Social Scoring, manipulação) estão em vigor desde agosto de 2025. Obrigações completas de alto risco a partir de agosto de 2026 (o Digital Omnibus pode adiar este prazo para dezembro de 2027).
  • Seis requisitos obrigatórios: gestão de riscos, governance de dados, obrigações de registro, transparência, supervisão humana e precisão/robustez.
  • O Decision Layer mapeia cada requisito arquitetonicamente: Confidence Routing para riscos, conjuntos de regras versionados para governance de dados, Audit Trail para registros, Human-in-the-Loop para supervisão.
  • Sanções de até 35 milhões de euros ou 7% do faturamento anual global nas infrações mais graves.

Segundo pesquisa da PwC (2024), apenas 24% das empresas que utilizam IA em processos de RH iniciaram preparação formal para conformidade com o EU AI Act, apesar do prazo de agosto de 2026 para sistemas de alto risco.

Artigo EU AI ActRequisitoImplementação no Decision Layer
Art. 9Sistema de gestão de riscosConfidence Routing com limiares configuráveis
Art. 10Governance de dadosConjuntos de regras versionados com datas de vigência
Art. 12Obrigações de registroAudit Trail imutável por decisão
Art. 13TransparênciaPortal do Auditor com caminho de decisão completo
Art. 14Supervisão humanaHuman-in-the-Loop imposto para tipos definidos
Art. 15Precisão e robustezMonitoramento de viés e design model-agnostic

A classificação: IA em RH e alto risco

O EU AI Act classifica sistemas de IA utilizados em emprego, gestão de trabalhadores e acesso ao trabalho autônomo como alto risco (Anexo III, n.o 4). Isso abrange concretamente:

Sistemas de IA para recrutamento e seleção de candidatos. Sistemas de IA que influenciam promocoes, demissoes, atribuição de tarefas ou monitoramento de desempenho. Sistemas de IA que afetam condições de trabalho, incluindo ajustes salariais, enquadramentos e planejamento de escalas.

Resumindo: praticamente qualquer agente de IA que prepara, apoia ou toma decisões em processos de RH se enquadra na categoria de alto risco.

No Brasil, o PL 2338/2023 propoe classificação semelhante para sistemas de IA em contextos de emprego. Em Portugal, como membro da UE, o EU AI Act se aplica diretamente.

Os prazos

Desde agosto de 2025 estao em vigor as proibições de práticas de IA inaceitaveis, incluindo social scoring e técnicas manipulativas. A partir de agosto de 2026 (o Digital Omnibus pode adiar este prazo para dezembro de 2027) entram em vigor as obrigações completas para sistemas de IA de alto risco. O período de transição não e generoso: empresas que hoje não estao construindo estruturas de governance não estarao em conformidade em agosto de 2026.

O que e especificamente exigido e como o Decision Layer atende

Os seguintes requisitos se aplicam a todo operador de um sistema de IA de alto risco no ambito de RH:

Artigo 9 - Sistema de gestão de riscos: O EU AI Act exige um sistema de gestão de riscos contínuo que identifique, avalie e mitigue riscos. No Decision Layer, isso e implementado por meio de Confidence Routing: cada decisão do agente e automaticamente avaliada por confiança e categoria de risco. Alto risco ou baixa confiança leva a escalação para um ser humano. Os limiares são configuráveis e documentados.

Artigo 10 - Governance de dados: Conjuntos de regras versionados no Decision Layer garantem que a base de dados de cada decisão seja rastreável. Convenções coletivas (CCT/ACT; PT: acordos de empresa), acordos sindicais e regras de compliance possuem versões, datas de vigencia e escopos de aplicação. Em uma auditoria, e rastreável qual conjunto de regras, em qual versão, estava vigente no momento da decisão.

Artigo 12 - Obrigações de registro: O Audit Trail no Decision Layer gera um registro de dados completo e imutável para cada decisão: entrada, modelo, conjunto de regras, confiança, decisão de roteamento, resultado, carimbo de data/hora. Automaticamente, não compilado a posteriori.

Artigo 13 - Transparencia: Cada decisão do agente e rastreável no Portal do Auditor. A representação dos trabalhadores - sindicatos/CRE (BR) / Comissão de Trabalhadores (PT) - , os encarregados de proteção de dados e os auditores podem consultar o caminho da decisão. Nenhuma caixa preta.

Artigo 14 - Supervisao humana: Human-in-the-Loop e um principio arquitetonico no Decision Layer, não uma configuração opcional. Para tipos de decisões definidos, potencial de discriminação, temas com impacto nos direitos dos trabalhadores, limiares de valor, a arquitetura impoe a revisao humana. Um agente não pode contornar essa revisao.

Artigo 15 - Precisao, robustez e ciberseguranca: O monitoramento de vies verifica sistematicamente padrões discriminatorios. Limiares de confiança garantem que o agente so decide de forma autônoma com certeza suficiente. O design model-agnostic permite trocar o modelo de linguagem sem alterar a lógica de governance.

eBook gratuito: IA em RH

Checklist EU AI Act, framework de decisões, perspectiva da representação dos trabalhadores e avaliação de prontidão - o manual de governança para líderes de RH.

Baixar gratuitamente

O que isso significa para os departamentos de RH

Empresas que hoje utilizam ou planejam utilizar IA em processos de RH devem construir estruturas de governance até agosto de 2026. Isso significa concretamente:

Lógica de decisão documentada para cada processo de RH assistido por IA. Mecanismos Human-in-the-Loop tecnicamente impostos para decisões com impacto em pessoal. Audit Trails auditáveis que tornem rastreável como cada decisão foi tomada. Monitoramento de vies que detecte e reporte padrões discriminatorios.

No Brasil, a CLT e as convenções coletivas (CCT/ACT) regem os direitos dos trabalhadores em relação a novas tecnologias no ambiente de trabalho. Os sindicatos e, em empresas com mais de 200 empregados, a CRE (Comissão de Representantes dos Empregados) têm papel de representação dos trabalhadores. Em Portugal (PT: Codigo do Trabalho), as Comissoes de Trabalhadores possuem direitos de informação e consulta sobre a introdução de tecnologias que afetem condições de trabalho.

O Decision Layer aborda ambos os blocos de requisitos, EU AI Act e legislacao trabalhista local (CLT no Brasil / Codigo do Trabalho em Portugal), em uma única arquitetura.

-> Decision Layer em detalhe

-> Participação dos trabalhadores e IA

-> HR Agent

Agendar reunião - Mostramos quais dos seus processos de RH se enquadram na categoria de alto risco e como o Decision Layer atende aos requisitos.

Bert Gogolin

Bert Gogolin

Diretor Executivo, Gosign

AI Governance Briefing

IA empresarial, regulamentação e infraestrutura - uma vez por mês, diretamente de mim.

Sem spam. Cancelável a qualquer momento. Política de privacidade

EU AI Act RH Alto risco Decision Layer Governance Compliance
Compartilhar este artigo

Perguntas frequentes

Sistemas de IA em RH estao sujeitos ao EU AI Act?

Sistemas de IA em RH estão sujeitos ao EU AI Act para empresas que operam na União Europeia. Sistemas utilizados em emprego, gestão de trabalhadores e acesso ao trabalho autônomo estão classificados como alto risco pelo Anexo III n.o 4. No Brasil, o PL 2338/2023 propõe classificação semelhante.

Quando entram em vigor as obrigações de alto risco?

As obrigações para sistemas de IA de alto risco pelo EU AI Act se aplicam a partir de agosto de 2026 (o Digital Omnibus pode adiar este prazo para dezembro de 2027). Práticas de IA proibidas já estao em vigor desde agosto de 2025. Para empresas brasileiras que operam na UE, o prazo e o mesmo.

O que acontece se uma empresa não cumprir as obrigações?

Multas de até 35 milhoes de euros ou 7% do faturamento anual global. Alem disso, riscos reputacionais e potenciais ações de responsabilidade. A ANPD (BR) e a CNPD (PT) também podem aplicar sanções no ambito da LGPD (PT: RGPD).

Este conteúdo aplica-se também a empresas em Portugal?

Portugal está sujeito diretamente ao EU AI Act como Estado-Membro da UE, com prazos e obrigações idênticos. No Brasil, o PL 2338/2023 está em tramitação e propõe uma regulamentação semelhante. As empresas portuguesas devem estar em conformidade até agosto de 2026 (o Digital Omnibus pode adiar este prazo para dezembro de 2027); empresas brasileiras que operam na UE, também.

Qual processo seu primeiro agente deveria gerenciar?

Deixe seu email - você receberá seu link pessoal de agendamento instantaneamente.