EU AI Act obowiązuje na całym świecie.
EU AI Act to nie europejska nadregulacja. Po prostu zapisuje to, czego każdy system prawny już wymaga: Wyjaśnij swoją decyzję.
Reality Check
Kraje, w których EU AI Act jest już rzeczywistością
Każdy kraj z systemem prawnym, w którym firmy mogą być pociągnięte do odpowiedzialności za decyzje oparte na AI.
Nie zaznaczone: Kraje bez funkcjonującego systemu sądowniczego. Jeśli tam prowadzicie biznes, macie inne problemy.
Somalia. Sudan Południowy. Jemen. Libia. Syria. - To jedyne wyjątki.
W skrócie - Accountability AI jest uniwersalne
- EU AI Act nie wymyślił wyjaśnialnych decyzji AI - jako pierwszy skodyfikował tę zasadę specjalnie dla systemów AI. Obowiązek wyjaśniania decyzji istnieje w praktycznie każdym systemie prawnym na świecie.
- HR to obszar najwyższego ryzyka, ponieważ decyzje AI dotyczące ludzi tworzą największą powierzchnię ataku prawnego - od biasu w screeningu CV po zautomatyzowane oceny pracownicze.
- Stronniczy algorytm skaluje dyskryminację do 50 000 decyzji jednocześnie - w porównaniu z około 50 rocznie stronniczego menedżera.
- Każda firma używająca AI do decyzji dotyczących ludzi potrzebuje dwóch warstw: Decision Layer (ślad dowodowy każdej decyzji) i Governance Layer (zasady gry).
- Shadow AI - pracownicy korzystający z ChatGPT, Copilot i innych narzędzi bez governance - to najpilniejsze i najbardziej niedoceniane ryzyko dla większości organizacji.
Według Komisji Europejskiej (2024), systemy AI sklasyfikowane jako wysokiego ryzyka w ramach EU AI Act bezpośrednio wpłyną na decyzje personalne w ponad 6000 organizacji w państwach członkowskich UE. HR został zidentyfikowany jako najczęściej dotknięty obszar biznesowy zgodnie z Załącznikiem III.
Pytanie za 3 miliony złotych
Polska firma używa narzędzia AI do rekrutacji. 500 aplikacji na wejściu, 20 na wyjściu. Jeden z 480 odrzuconych kandydatów idzie do sądu pracy. Nie powołuje się na EU AI Act. Powołuje się na Kodeks Pracy - artykuł 183a zakazujący dyskryminacji w zatrudnieniu. Przepis obowiązujący od 2004 roku.
Pytanie sądu: “Proszę wyjaśnić, jak ta decyzja została podjęta.”
Cisza.
Nie dlatego, że firma działała w złej wierze. Dlatego, że nikt w firmie nie potrafi wyjaśnić, jak narzędzie AI wygenerowało te 480 odmów. HR kupił narzędzie. IT je zainstalowało. A logika decyzyjna tkwi w czarnej skrzynce, której nikt nie potrafi otworzyć.
To nie jest scenariusz hipotetyczny. To dzieje się teraz. I nie tylko w Polsce.
Accountability to nie wynalazek europejski
Większość menedżerów schowała EU AI Act do szuflady z napisem “europejska biurokracja”. To kosztowny błąd. EU AI Act nie wymyślił zasady wyjaśnialnych decyzji. Po prostu jako pierwszy skodyfikował ją specjalnie dla systemów AI.
Sama zasada obowiązuje wszędzie.
Polska: Kodeks Pracy art. 183a-183e zakazuje dyskryminacji bezpośredniej i pośredniej. Ustawa o ochronie danych osobowych (implementacja RODO) wymaga transparentności przetwarzania. Państwowa Inspekcja Pracy może kontrolować, jak firma podejmuje decyzje kadrowe. A jako członek UE, EU AI Act obowiązuje bezpośrednio - z pełną mocą prawa europejskiego.
USA: Title VII Civil Rights Act zabrania dyskryminacji w decyzjach personalnych - od 1964 roku. EEOC może w każdej chwili zażądać wyjaśnienia, dlaczego kandydat został odrzucony. W Nowym Jorku Local Law 144 wymaga obowiązkowych audytów bias w narzędziach AI do rekrutacji od 2023 roku.
Brazylia: LGPD artykuł 20 daje wyraźne prawo do wyjaśnienia decyzji automatycznych. Brazylijskie sądy pracy to najaktywniejsze sądy pracy na świecie - ponad 3,5 miliona nowych spraw rocznie.
Chiny: Algorithmic Recommendation Management Provisions obowiązują od 2022 roku. Nawet Chiny wymagają transparentności decyzji algorytmicznych.
Spośród 193 państw członkowskich ONZ, dokładnie w 5 firma nie może zostać pociągnięta do odpowiedzialności za niewytłumaczalną decyzję AI. Nie dlatego, że te kraje na to pozwalają - ale dlatego, że nie mają funkcjonującego systemu sądowniczego.
EU AI Act to nie europejska nadregulacja. To pierwsza uczciwa odpowiedź na uniwersalne pytanie.
| Region | Ustawodawstwo | Wymagana wyjaśnialność | Decyzje HR objęte |
|---|---|---|---|
| UE / Polska | EU AI Act, RODO Art. 22, Kodeks Pracy | Tak (prawnie wiążące) | Tak (Załącznik III wysokie ryzyko) |
| USA | Title VII, NYC Local Law 144 | Tak (antydyskryminacja) | Tak (decyzje o zatrudnieniu) |
| Brazylia | LGPD Art. 20, CLT | Tak (prawo do wyjaśnienia) | Tak (aktywne sądy pracy) |
| Chiny | Algorithmic Provisions 2022 | Tak (wymagana transparentność) | Tak (decyzje algorytmiczne) |
| UK | UK GDPR, Equality Act 2010 | Tak (wytyczne ICO) | Tak (decyzje automatyczne) |
Dlaczego HR jest na pierwszej linii frontu
Błędne decyzje AI o produktach są irytujące. Błędne decyzje AI o procesach są kosztowne. Błędne decyzje AI o ludziach są egzystencjalne - dla poszkodowanych i dla firmy.
HR to obszar, w którym decyzje AI tworzą największą powierzchnię ataku. Trzy scenariusze, które dzieją się już dziś:
Screening CV oparty na AI systematycznie odrzuca kandydatów z przerwami w karierze. Dotknięci: rodzice, osoby przewlekle chore, osoby zmieniające ścieżkę kariery. W polskim prawie pracy to dyskryminacja pośrednia.
Analiza sentymentu w rozmowach wideo błędnie interpretuje kulturowe różnice w mimice i gestach jako negatywne sygnały. Dotknięci: kandydaci z innym tłem kulturowym. To potencjalnie dyskryminacja etniczna.
Narzędzie do przewidywania wyników trenowane na historycznych danych o awansach reprodukuje wzorce z przeszłości. Jeśli w przeszłości mężczyźni byli awansowani częściej, narzędzie powiela ten schemat. To systematyczna dyskryminacja ze względu na płeć - zautomatyzowana i skalowalna.
Każdy z tych scenariuszy jest już dziś zaskarżalny w większości krajów. Nie od sierpnia 2026 (z zastrzeżeniem przesunięcia na grudzień 2027 proponowanego w Digital Omnibus). Teraz. Różnica: EU AI Act zmienia to z reaktywnej odpowiedzialności w proaktywny obowiązek.
A prawdziwy problem z dyskryminacją AI w porównaniu z ludzką dyskryminacją: stronniczy menedżer podejmuje może 50 wątpliwych decyzji rocznie. Stronniczy algorytm podejmuje 50 000. Jednocześnie. Konsekwentnie. Udowadnialnie.
Dwie warstwy, których potrzebuje każda firma
Rozwiązanie nie jest skomplikowane - ale wymaga architektonicznego myślenia. Każda firma, która używa AI do decyzji dotyczących ludzi, potrzebuje dwóch warstw.
Decision Layer - dowody. Decision Layer rozkłada każdy proces na pojedyncze kroki decyzyjne i dla każdego kroku definiuje: człowiek, zestaw reguł czy AI. Każda decyzja wspomagana przez AI odpowiada na pytania: Jakie dane weszły? Który model zdecydował, w jakiej wersji? Jaki był wynik i z jakim poziomem pewności? Czy człowiek przejrzał wynik, zanim zaczął obowiązywać? Czy decyzja jest powtarzalna?
To nie jest techniczny dodatek. To cyfrowy odpowiednik księgowości. I tak jak żadna firma nie może działać bez księgowości, wkrótce żadna firma nie będzie mogła działać bez Decision Layer.
Governance Layer - zasady gry. Zanim zapadnie pierwsza decyzja AI: Jakie aplikacje AI w ogóle istnieją w firmie? Większość firm tego nie wie. Jak ryzykowna jest każda aplikacja - nie według kategorii regulacyjnych, ale według realnego wpływu na ludzi? Kto ponosi odpowiedzialność? Spoiler: “IT” to nie odpowiedź. Kiedy musi interweniować człowiek? I jak to wszystko jest audytowane?
W Polsce istotna jest dodatkowa rola Społecznego Inspektora Pracy oraz potencjalna rola związków zawodowych w procesie wdrażania systemów AI, które wpływają na decyzje kadrowe. Transparentność i udokumentowana logika decyzyjna to warunek konieczny dla akceptacji przez pracowników i ich przedstawicieli.
Słoń w pokoju: Shadow AI
I teraz najbardziej niewygodny punkt. Większość firm dyskutuje o governance dla narzędzi AI, które oficjalnie wdrożyła. W międzyczasie ich pracownicy już dawno korzystają z ChatGPT, Claude, Copilot i innych narzędzi do przygotowywania decyzji - bez wiedzy kogokolwiek.
Rekruterzy używają ChatGPT do podsumowywania aplikacji. Kierownicy zespołów zlecają Copilotowi pisanie rekomendacji awansowych. Dział L&D tworzy z AI oceny pracownicze.
To wszystko dzieje się. Teraz. Bez Decision Layer. Bez Governance Layer. Bez jakiejkolwiek śladowości.
A kiedy ktoś pozwie firmę, odpowiedź nie będzie “AI zdecydowała” - będzie gorsza: “Nie wiedzieliśmy nawet, że AI decydowała.”
Prawdziwe pytanie
Pytanie nie brzmi: “Czy jesteśmy zgodni z EU AI Act?”
Pytanie brzmi: Czy jutro - w każdym kraju, w którym działamy - potrafimy wyjaśnić, dlaczego dzisiaj podjęliśmy taką decyzję?
Kto potrafi odpowiedzieć “tak”, jest automatycznie zgodny. Z EU AI Act. Z RODO. Z Kodeksem Pracy. Ze wszystkim, co jeszcze nadejdzie.
Kto nie potrafi, nie ma problemu z regulacjami. Ma problem z governance.

Bert Gogolin
Dyrektor Generalny, Gosign
AI Governance Briefing
Enterprise AI, regulacje i infrastruktura - raz w miesiącu, bezpośrednio ode mnie.