Przejdź do treści
Governance & Compliance

EU AI Act i HR: Co od sierpnia 2026 obowiazuje dla AI w HR

AI w HR to system wysokiego ryzyka wg EU AI Act. Co to oznacza, jakie obowiazki obowiazuja i jak Decision Layer spelnia wymagania architektonicznie.

Bert Gogolin
Bert Gogolin
CEO i założyciel 6 min czytania

EU AI Act klasyfikuje niemal każdy system AI stosowany w procesach HR jako system wysokiego ryzyka. Od sierpnia 2026 systemy te muszą spełniać rygorystyczne wymagania dotyczące zarządzania ryzykiem, transparentności i nadzoru ludzkiego.

W skrócie - AI w HR to system wysokiego ryzyka wg EU AI Act

  • Systemy AI do rekrutacji, ocen pracowniczych, awansów i zwolnień są klasyfikowane jako wysokiego ryzyka zgodnie z Załącznikiem III, nr 4 EU AI Act.
  • Zakazane praktyki AI (Social Scoring, manipulacja) obowiązują od sierpnia 2025. Pełne obowiązki dla systemów wysokiego ryzyka od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027).
  • Sześć obowiązkowych wymagań: zarządzanie ryzykiem, governance danych, obowiązki rejestrowania, transparentność, nadzór ludzki oraz dokładność/odporność.
  • Decision Layer odwzorowuje każde wymaganie architektonicznie: Confidence Routing dla ryzyka, wersjonowane zestawy reguł dla governance danych, Audit Trail dla rejestracji, Human-in-the-Loop dla nadzoru.
  • Kary do 35 milionów euro lub 7% globalnego rocznego obrotu przy najpoważniejszych naruszeniach.

Według badania PwC (2024), tylko 24% przedsiębiorstw stosujących AI w procesach HR rozpoczęło formalne przygotowania do zgodności z EU AI Act - mimo deadline’u na sierpień 2026 dla systemów wysokiego ryzyka.

Artykuł EU AI ActWymaganieImplementacja w Decision Layer
Art. 9System zarządzania ryzykiemConfidence Routing z konfigurowalnymi progami
Art. 10Governance danychWersjonowane zestawy reguł z datami ważności
Art. 12Obowiązki rejestrowaniaNiezmienny Audit Trail na decyzję
Art. 13TransparentnośćPortal Audytora z pełną ścieżką decyzyjną
Art. 14Nadzór ludzkiWymuszony Human-in-the-Loop dla określonych typów
Art. 15Dokładność i odpornośćMonitoring biasu i design model-agnostyczny

Klasyfikacja: AI w HR to system wysokiego ryzyka

EU AI Act klasyfikuje systemy AI stosowane w zatrudnieniu, zarzadzaniu pracownikami i dostepie do samozatrudnienia jako systemy wysokiego ryzyka (Zalacznik III, nr 4). Dotyczy to konkretnie:

Systemow AI do rekrutacji i selekcji kandydatow. Systemow AI wplywajacych na awanse, zwolnienia, przydzielanie zadan lub monitorowanie wydajnosci. Systemow AI wplywajacych na warunki pracy, w tym dostosowania wynagrodzen, zaszeregowania i planowanie zmian.

Krotko: niemal kazdy agent AI, który przygotowuje, wspiera lub podejmuje decyzje w procesach HR, podlega kategorii wysokiego ryzyka.

Terminy

Od sierpnia 2025 obowiazuja zakazy niedopuszczalnych praktyk AI, w tym social scoringu i technik manipulacyjnych. Od sierpnia 2026 (Digital Omnibus może przesunąć ten termin na grudzień 2027) wchodza w zycie pelne obowiazki dla systemow AI wysokiego ryzyka. Okres przejsciowy nie jest dlugosci: firmy, które dzis nie buduja struktur governance, nie beda zgodne z przepisami w sierpniu 2026.

Co konkretnie jest wymagane i jak Decision Layer to realizuje

Ponizsze wymagania obowiazuja kazdego operatora systemu AI wysokiego ryzyka w obszarze HR:

Artykul 9 - System zarzadzania ryzykiem: EU AI Act wymaga ciaglego systemu zarzadzania ryzykiem, który identyfikuje, ocenia i lagodzi ryzyka. W Decision Layer realizowane jest to przez Confidence Routing: kazda decyzja agenta jest automatycznie oceniana pod katem pewnosci i kategorii ryzyka. Wysokie ryzyko lub niska pewnosc prowadzi do eskalacji do czlowieka. Progi sa konfigurowalne i udokumentowane.

Artykul 10 - Governance danych: Wersjonowane zestawy regul w Decision Layer zapewniaja, ze podstawa danych kazdej decyzji jest możliwa do prosledzenia. Uklady zbiorowe, porozumienia zakladowe i reguly compliance maja wersje, daty waznosci i zakresy stosowania. Podczas kontroli można prosledzic, jaki zestaw regul w jakiej wersji obowiazywal w momencie podjecia decyzji.

Artykul 12 - Obowiazki rejestrowania: Audit Trail w Decision Layer generuje dla kazdej decyzji kompletny, niezmienny rekord danych: dane wejsciowe, model, zestaw regul, pewnosc, decyzja routingu, wynik, znacznik czasu. Automatycznie, nie skompilowany po fakcie.

Artykul 13 - Transparentnosc: Kazda decyzja agenta jest mozliwa do prosledzenia w Portalu Audytora. Rady zakladowe, Inspektorzy Ochrony Danych (IOD) i audytorzy mogą przeglądać ścieżkę decyzyjną. Żadnej czarnej skrzynki.

Artykul 14 - Nadzor ludzki: Human-in-the-Loop jest w Decision Layer zasada architektoniczna, a nie opcjonalnym ustawieniem. Dla okreslonych typow decyzji, potencjal dyskryminacji, kwestie wspoldzecydowania, progi wartosciowe, architektura wymusza przeglad przez czlowieka. Agent nie może ominąć tej kontroli.

Artykul 15 - Dokladnosc, odpornosc i cyberbezpieczenstwo: Monitoring biasu systematycznie sprawdza wzorce dyskryminacyjne. Progi pewnosci zapewniaja, ze agent podejmuje decyzje autonomicznie tylko przy wystarczajacej pewnosci. Model-agnostyczny design umozliwia zmiane modelu jezykowego bez zmiany logiki governance.

Bezpłatny eBook: AI w HR

Checklista EU AI Act, framework decyzyjny, perspektywa rady zakładowej i ocena gotowości - poradnik governance dla liderów HR.

Pobierz bezpłatnie

Co to oznacza dla dzialow HR

Firmy, które dzis stosuja lub planuja stosowac AI w procesach HR, muszą do sierpnia 2026 zbudowac struktury governance. Oznacza to konkretnie:

Udokumentowana logike decyzyjna dla kazdego procesu HR wspomaganego przez AI. Technicznie wymuszone mechanizmy Human-in-the-Loop dla decyzji dotyczacych personelu. Audytowalne Audit Trails umozliwiajace prosledzenie, jak kazda decyzja zostala podjeta. Monitoring biasu wykrywajacy i raportujacy wzorce dyskryminacyjne.

W Polsce dodatkowym wymiarem sa uprawnienia konsultacyjne rad pracownikow oraz zwiazki zawodowe, które mogą negocjować warunki wdrożenia systemów AI w miejscu pracy. Ustawa o radach pracownikow daje prawo do informacji i konsultacji w sprawach dotyczacych warunkow pracy, co obejmuje wdrazanie nowych technologii.

Decision Layer adresuje oba bloki wymagan, EU AI Act oraz lokalne przepisy dotyczace wspoldzecydowania, w jednej architekturze.

-> Decision Layer w szczegolach

-> Wspoldzecydowanie i AI

-> HR Agent

Umow spotkanie - Pokażemy, które z Twoich procesów HR podlegaja kategorii wysokiego ryzyka i jak Decision Layer spelnia wymagania.

Bert Gogolin

Bert Gogolin

Dyrektor Generalny, Gosign

AI Governance Briefing

Enterprise AI, regulacje i infrastruktura - raz w miesiącu, bezpośrednio ode mnie.

Bez spamu. Możliwość rezygnacji w każdej chwili. Polityka prywatności

EU AI Act HR Wysokie ryzyko Decision Layer Governance Compliance
Udostępnij artykuł

Najczęściej zadawane pytania

Czy systemy AI w HR podlegaja EU AI Act?

Tak. Systemy AI stosowane w zatrudnieniu, zarzadzaniu pracownikami i dostepie do samozatrudnienia podlegaja Zalacznikowi III nr 4 EU AI Act i sa klasyfikowane jako systemy AI wysokiego ryzyka.

Od kiedy obowiazuja wymogi dla systemow wysokiego ryzyka?

Obowiazki dotyczace systemow AI wysokiego ryzyka wg EU AI Act obowiazuja od sierpnia 2026 roku (Digital Omnibus może przesunąć ten termin na grudzień 2027). Zakaz niedopuszczalnych praktyk AI obowiazuje juz od sierpnia 2025.

Co grozi firmie za niespelnienie wymog?

Kary do 35 milionow euro lub 7% globalnego rocznego obrotu. Dodatkowo ryzyko reputacyjne i potencjalne roszczenia odszkodowawcze. Dla polskich firm dzialajacych na rynku UE te kary obowiazuja w pelnym zakresie.

Jak Decision Layer spelnia wymagania AI Act?

Decision Layer odwzorowuje wymagania architektonicznie: zarzadzanie ryzykiem przez Confidence Routing, governance danych przez wersjonowane zestawy regul, transparentnosc przez Audit Trail, nadzor ludzki przez Human-in-the-Loop.

Jaki proces powinien obsłużyć Twój pierwszy agent?

Zostaw swój email - otrzymasz osobisty link do rezerwacji natychmiast.