EU AI Act i HR: Co od sierpnia 2026 obowiazuje dla AI w HR
AI w HR to system wysokiego ryzyka wg EU AI Act. Co to oznacza, jakie obowiazki obowiazuja i jak Decision Layer spelnia wymagania architektonicznie.
EU AI Act klasyfikuje niemal każdy system AI stosowany w procesach HR jako system wysokiego ryzyka. Od sierpnia 2026 systemy te muszą spełniać rygorystyczne wymagania dotyczące zarządzania ryzykiem, transparentności i nadzoru ludzkiego.
W skrócie - AI w HR to system wysokiego ryzyka wg EU AI Act
- Systemy AI do rekrutacji, ocen pracowniczych, awansów i zwolnień są klasyfikowane jako wysokiego ryzyka zgodnie z Załącznikiem III, nr 4 EU AI Act.
- Zakazane praktyki AI (Social Scoring, manipulacja) obowiązują od sierpnia 2025. Pełne obowiązki dla systemów wysokiego ryzyka od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027).
- Sześć obowiązkowych wymagań: zarządzanie ryzykiem, governance danych, obowiązki rejestrowania, transparentność, nadzór ludzki oraz dokładność/odporność.
- Decision Layer odwzorowuje każde wymaganie architektonicznie: Confidence Routing dla ryzyka, wersjonowane zestawy reguł dla governance danych, Audit Trail dla rejestracji, Human-in-the-Loop dla nadzoru.
- Kary do 35 milionów euro lub 7% globalnego rocznego obrotu przy najpoważniejszych naruszeniach.
Według badania PwC (2024), tylko 24% przedsiębiorstw stosujących AI w procesach HR rozpoczęło formalne przygotowania do zgodności z EU AI Act - mimo deadline’u na sierpień 2026 dla systemów wysokiego ryzyka.
| Artykuł EU AI Act | Wymaganie | Implementacja w Decision Layer |
|---|---|---|
| Art. 9 | System zarządzania ryzykiem | Confidence Routing z konfigurowalnymi progami |
| Art. 10 | Governance danych | Wersjonowane zestawy reguł z datami ważności |
| Art. 12 | Obowiązki rejestrowania | Niezmienny Audit Trail na decyzję |
| Art. 13 | Transparentność | Portal Audytora z pełną ścieżką decyzyjną |
| Art. 14 | Nadzór ludzki | Wymuszony Human-in-the-Loop dla określonych typów |
| Art. 15 | Dokładność i odporność | Monitoring biasu i design model-agnostyczny |
Klasyfikacja: AI w HR to system wysokiego ryzyka
EU AI Act klasyfikuje systemy AI stosowane w zatrudnieniu, zarzadzaniu pracownikami i dostepie do samozatrudnienia jako systemy wysokiego ryzyka (Zalacznik III, nr 4). Dotyczy to konkretnie:
Systemow AI do rekrutacji i selekcji kandydatow. Systemow AI wplywajacych na awanse, zwolnienia, przydzielanie zadan lub monitorowanie wydajnosci. Systemow AI wplywajacych na warunki pracy, w tym dostosowania wynagrodzen, zaszeregowania i planowanie zmian.
Krotko: niemal kazdy agent AI, który przygotowuje, wspiera lub podejmuje decyzje w procesach HR, podlega kategorii wysokiego ryzyka.
Terminy
Od sierpnia 2025 obowiazuja zakazy niedopuszczalnych praktyk AI, w tym social scoringu i technik manipulacyjnych. Od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027) wchodza w zycie pelne obowiazki dla systemow AI wysokiego ryzyka. Okres przejsciowy nie jest dlugosci: firmy, które dzis nie buduja struktur governance, nie beda zgodne z przepisami w sierpniu 2026.
Co konkretnie jest wymagane i jak Decision Layer to realizuje
Ponizsze wymagania obowiazuja kazdego operatora systemu AI wysokiego ryzyka w obszarze HR:
Artykul 9 - System zarzadzania ryzykiem: EU AI Act wymaga ciaglego systemu zarzadzania ryzykiem, który identyfikuje, ocenia i lagodzi ryzyka. W Decision Layer realizowane jest to przez Confidence Routing: kazda decyzja agenta jest automatycznie oceniana pod katem pewnosci i kategorii ryzyka. Wysokie ryzyko lub niska pewnosc prowadzi do eskalacji do czlowieka. Progi sa konfigurowalne i udokumentowane.
Artykul 10 - Governance danych: Wersjonowane zestawy regul w Decision Layer zapewniaja, ze podstawa danych kazdej decyzji jest możliwa do prosledzenia. Uklady zbiorowe, porozumienia zakladowe i reguly compliance maja wersje, daty waznosci i zakresy stosowania. Podczas kontroli można prosledzic, jaki zestaw regul w jakiej wersji obowiazywal w momencie podjecia decyzji.
Artykul 12 - Obowiazki rejestrowania: Audit Trail w Decision Layer generuje dla kazdej decyzji kompletny, niezmienny rekord danych: dane wejsciowe, model, zestaw regul, pewnosc, decyzja routingu, wynik, znacznik czasu. Automatycznie, nie skompilowany po fakcie.
Artykul 13 - Transparentnosc: Kazda decyzja agenta jest mozliwa do prosledzenia w Portalu Audytora. Rady zakladowe, Inspektorzy Ochrony Danych (IOD) i audytorzy mogą przeglądać ścieżkę decyzyjną. Żadnej czarnej skrzynki.
Artykul 14 - Nadzor ludzki: Human-in-the-Loop jest w Decision Layer zasada architektoniczna, a nie opcjonalnym ustawieniem. Dla okreslonych typow decyzji, potencjal dyskryminacji, kwestie wspoldzecydowania, progi wartosciowe, architektura wymusza przeglad przez czlowieka. Agent nie może ominąć tej kontroli.
Artykul 15 - Dokladnosc, odpornosc i cyberbezpieczenstwo: Monitoring biasu systematycznie sprawdza wzorce dyskryminacyjne. Progi pewnosci zapewniaja, ze agent podejmuje decyzje autonomicznie tylko przy wystarczajacej pewnosci. Model-agnostyczny design umozliwia zmiane modelu jezykowego bez zmiany logiki governance.
Bezpłatny eBook: AI w HR
Checklista EU AI Act, framework decyzyjny, perspektywa rady zakładowej i ocena gotowości - poradnik governance dla liderów HR.
Pobierz bezpłatnieCo to oznacza dla dzialow HR
Firmy, które dzis stosuja lub planuja stosowac AI w procesach HR, muszą do sierpnia 2026 zbudowac struktury governance. Oznacza to konkretnie:
Udokumentowana logike decyzyjna dla kazdego procesu HR wspomaganego przez AI. Technicznie wymuszone mechanizmy Human-in-the-Loop dla decyzji dotyczacych personelu. Audytowalne Audit Trails umozliwiajace prosledzenie, jak kazda decyzja zostala podjeta. Monitoring biasu wykrywajacy i raportujacy wzorce dyskryminacyjne.
W Polsce dodatkowym wymiarem sa uprawnienia konsultacyjne rad pracownikow oraz zwiazki zawodowe, które mogą negocjować warunki wdrożenia systemów AI w miejscu pracy. Ustawa o radach pracownikow daje prawo do informacji i konsultacji w sprawach dotyczacych warunkow pracy, co obejmuje wdrazanie nowych technologii.
Decision Layer adresuje oba bloki wymagan, EU AI Act oraz lokalne przepisy dotyczace wspoldzecydowania, w jednej architekturze.
-> Decision Layer w szczegolach
-> HR Agent
Umow spotkanie - Pokażemy, które z Twoich procesów HR podlegaja kategorii wysokiego ryzyka i jak Decision Layer spelnia wymagania.

Bert Gogolin
Dyrektor Generalny, Gosign
AI Governance Briefing
Enterprise AI, regulacje i infrastruktura - raz w miesiącu, bezpośrednio ode mnie.