EU AI Act i HR - co jest teraz obowiazkowe
EU AI Act klasyfikuje procesy HR jako wysokie ryzyko. Monitoring biasu, Human Oversight, transparentność - co teraz jest obowiązkowe.
EU AI Act klasyfikuje AI stosowaną w decyzjach personalnych jako system wysokiego ryzyka. Od klasyfikacji ryzyka przez monitoring biasu po nadzór ludzki - to teraz wymagania prawne, nie opcjonalne funkcje.
W skrócie - Obowiązki EU AI Act dla HR
- Każdy system AI wpływający na decyzje HR - rekrutacja, ocena wyników, wynagrodzenia, awanse - to system wysokiego ryzyka wg Załącznika III EU AI Act.
- Cztery kluczowe wymagania: klasyfikacja ryzyka każdego systemu AI, obowiązkowy monitoring biasu, wymuszony nadzór ludzki oraz pełna transparentność z dokumentacją.
- Typowe błędy: retroaktywna zgodność zamiast Governance by Design, deklarowanie narzędzi AI jako "jedynie wspierających" i zbyt późne informowanie rady pracowników.
- Właściwe podejście to Architecture-First: Decision Layer rozkłada każdy proces HR na pojedyncze kroki decyzyjne z logowaniem, wersjonowaniem i Human-in-the-Loop od pierwszego dnia.
- Kary do 35 milionów euro lub 7% globalnego rocznego obrotu. Obowiązki dla systemów wysokiego ryzyka od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027).
Parlament Europejski (2024) szacuje, że HR i zatrudnienie stanowią największą pojedynczą kategorię zastosowań AI wysokiego ryzyka w ramach EU AI Act, dotykając szacunkowo 85% dużych przedsiębiorstw stosujących AI w rekrutacji lub zarządzaniu personelem.
| Proces HR | Klasyfikacja EU AI Act | Kluczowe wymaganie |
|---|---|---|
| Screening CV / Rekrutacja | Wysokie ryzyko (Załącznik III) | Monitoring biasu, Audit Trail |
| Ocena wyników | Wysokie ryzyko (Załącznik III) | Nadzór ludzki, transparentność |
| Decyzje o awansach | Wysokie ryzyko (Załącznik III) | Wyjaśnialność, Human-in-the-Loop |
| Planowanie zmian (z danymi personalnymi) | Potencjalnie wysokie ryzyko | Ocena ryzyka, governance danych |
| Compliance Knowledge Agent | Ograniczone ryzyko | Obowiązek transparentności |
EU AI Act i HR: dlaczego to jest istotne
EU AI Act (Rozporzadzenie (UE) 2024/1689) obowiazuje od sierpnia 2024. Reguluje systemy AI wedlug ich ryzyka. Dla dzialow HR klasyfikacja jest jednoznaczna: systemy AI stosowane do podejmowania decyzji dotyczacych osob fizycznych w kontekscie zatrudnienia sa systemami wysokiego ryzyka (Zalacznik III, punkt 4).
Dotyczy to nie tylko automatycznego oprogramowania rekrutacyjnego. Dotyczy kazdego zastosowania AI majacego wplyw na decyzje personalne: screening kandydatow, ocena wynikow, propozycje wynagrodzen, rekomendacje awansow, planowanie zmian z optymalizacja AI, automatyczne generowanie referencji.
Obowiazki dla systemow wysokiego ryzyka obowiazuja od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027). To daje firmom jeszcze czas na przygotowanie, ale decyzje architektoniczne muszą być podejmowane teraz.
Czego EU AI Act konkretnie wymaga
Dla systemow AI wysokiego ryzyka w obszarze HR EU AI Act wymaga:
System zarzadzania ryzykiem (Art. 9): Ciagle zarzadzanie ryzykiem przez caly cykl zycia systemu AI. Identyfikacja ryzyk, ocena, srodki zaradcze, przeglad. To nie jest jednorazowa analiza, lecz ciagly proces.
Jakosc danych (Art. 10): Dane treningowe, walidacyjne i testowe muszą być istotne, reprezentatywne, wolne od bledow i kompletne. Dla HR oznacza to: jesli agent jest trenowany na historycznych decyzjach personalnych, dane te muszą być sprawdzone pod katem biasu. Historyczna dyskryminacja w danych bedzie inaczej reprodukowana przez system AI.
Dokumentacja techniczna (Art. 11): Pelna dokumentacja systemu AI przed uruchomieniem. Cel, sposob dzialania, wskazniki wydajnosci, ograniczenia, ryzyka. Dokumentacja musi być aktualizowana.
Przechowywanie logow (Art. 12): Automatyczne protokolowanie wszystkich zdarzen przez caly okres zycia systemu. W kontekscie HR: kazda decyzja, kazda rekomendacja, kazda eskalacja.
Human Oversight (Art. 14): Nadzor ludzki musi być zagwarantowany. Czlowiek musi rozumiec mozliwosci i ograniczenia systemu, być w stanie interpretować wyniki i miec mozliwosc interwencji lub wylaczenia systemu.
Monitoring biasu: EU AI Act wymaga, aby systemy wysokiego ryzyka byly monitorowane pod katem uprzedzen. Dla decyzji HR oznacza to: analiza statystyczna wszystkich decyzji agentow. Czy okreslone grupy sa systematycznie traktowane inaczej?
Transparentnosc (Art. 13): Osoby, których decyzje dotycza, muszą być informowane o stosowaniu systemow AI.
Co to oznacza dla architektury
Wymagania EU AI Act to nie srodki organizacyjne. To wymagania architektoniczne. System AI, który ma spelnic te wymagania po fakcie, musi być gruntownie przebudowany.
Decision Layer: Decision Layer rozklada kazdy proces HR na pojedyncze kroki decyzyjne i definiuje dla kazdego kroku: czlowiek, zestaw regul lub AI. Rules Engine implementuje wersjonowane zestawy regul. Confidence Routing zapewnia ocene ryzyka. Mechanizm Human-in-the-Loop gwarantuje nadzor ludzki. Audit Trail spelnia obowiazek przechowywania logow.
Monitoring biasu: Przez Decision Layer wszystkie decyzje agentow sa analizowane statystycznie. Odchylenia od oczekiwanych rozkladow sa wykrywane i eskalowane. To nie jest reczny proces przegladu, lecz automatyczny monitoring.
Portal Audytora: Dokumentacja techniczna i dowody sa dostepne w Portalu Audytora w kazdej chwili. Audytorzy - wewnetrzni i zewnetrzni - widza status na zywo wszystkich kontroli.
Harmonogram: co musi sie teraz wydarzyc
Natychmiast: Inwentaryzacja wszystkich systemow AI w obszarze HR. Również tych, które nie są oznaczone jako “AI”: algorytmy scoringowe w oprogramowaniu rekrutacyjnym, planowanie zmian oparte na AI, automatyczne generowanie tekstow.
Do Q3 2026: Wdrozenie systemu zarzadzania ryzykiem. Podjecie decyzji architektonicznych. Implementacja infrastruktury governance.
Od sierpnia 2026: Systemy wysokiego ryzyka muszą w pelni spelniac wymagania EU AI Act.
W Polsce EU AI Act obowiazuje bezposrednio jako rozporzadzenie UE, bez potrzeby implementacji do prawa krajowego. Dodatkowo Kodeks Pracy i Ustawa o radach pracownikow (2006) daja Radzie Zakladowej prawo do informacji i konsultacji przy wdrazaniu systemow technicznych wplywajacych na warunki pracy. Związki zawodowe mogą negocjować warunki wdrożenia AI w porozumieniach zakładowych. Decision Layer adresuje oba bloki wymagan - EU AI Act i polskie prawo do konsultacji - w jednej architekturze.
Firmy, które teraz wdrazaja agentow AI do procesow HR, powinny od poczatku projektowac architekture zgodna z EU AI Act. Retrospektywna zgodnosc jest technicznie mozliwa, ale znacznie bardziej pracochlonna i kosztowna.
Więcej na ten temat: EU AI Act Readiness
Więcej o agentach AI w HR i ich zgodności z polskimi przepisami.
Umow spotkanie - Pokazemy, jak Twoje systemy AI w HR mogą być zgodne z EU AI Act.

Bert Gogolin
Dyrektor Generalny, Gosign
AI Governance Briefing
Enterprise AI, regulacje i infrastruktura - raz w miesiącu, bezpośrednio ode mnie.