Human-in-the-Loop - zasada architektury, nie checkbox
Human-in-the-Loop dla agentów AI: architektonicznie wymuszona kontrola ludzka. Confidence Routing, reguły eskalacji, kontrole biasu.
Problem: HITL jako twierdzenie marketingowe
Niemal kazdy dostawca AI twierdzi, że jego rozwiązanie posiada “Human-in-the-Loop”. W praktyce czesto oznacza to: gdzies w procesie jest przycisk zatwierdzania. Człowiek może go kliknąć. Ale nie musi.
To nie jest Human-in-the-Loop. To opcjonalne zatwierdzenie, które pod presja czasu zostaje pominiete. Gdy pracownik przetwarza 200 dokumentow dziennie i 195 z nich jest poprawnych, w koncu zacznie zatwierdzac wszystkie bez przegladu.
Prawdziwy Human-in-the-Loop to zasada architektoniczna. Oznacza: przy zdefiniowanych typach decyzji agent fizycznie nie może działać autonomicznie. Workflow się zatrzymuje. System docelowy nie jest wywoływany. Dopiero po ludzkiej weryfikacji i udokumentowanym zatwierdzeniu proces jest kontynuowany.
W skrócie - Architektura Human-in-the-Loop
- Prawdziwy HITL to zasada architektoniczna, nie opcjonalny przycisk zatwierdzenia - agent fizycznie nie może ominąć weryfikacji ludzkiej przy zdefiniowanych typach decyzji.
- Trzy wyzwalacze: niska wartość pewności, klasyfikacja wysokiego ryzyka (dyskryminacja, konsultacja) i pierwsze zastosowanie nowych reguł.
- EU AI Act wymaga efektywnego nadzoru ludzkiego dla systemów AI wysokiego ryzyka - procesy HR wyraźnie podlegają tej kategorii.
- Porozumienia zakładowe stają się ograniczeniami technicznymi w Decision Layer, których system nie może ominąć.
- HITL nie rozwiązuje problemu biasu w danych treningowych i nie skaluje się liniowo - to jeden element obok Audit Trail, monitoringu biasu i kontroli Cert-Ready.
Według Komisji Europejskiej (2024), nadzór ludzki jest wymagany dla wszystkich systemów AI wysokiego ryzyka zgodnie z EU AI Act, a procesy HR są wyraźnie wymienione w Załączniku III - co czyni architektonicznie wymuszone Human-in-the-Loop koniecznością prawną, a nie wyborem projektowym.
| Wyzwalacz HITL | Opis | Konfigurowalny |
|---|---|---|
| Niska wartość pewności | Niepewność agenta poniżej zdefiniowanego progu | Tak, per klient |
| Ryzyko dyskryminacji | Decyzje z potencjałem dyskryminacyjnym | Zawsze eskalowane |
| Kwestie konsultacyjne | Decyzje wymagające konsultacji z Radą Zakładową | Zawsze eskalowane |
| Przekroczenie progu wartości | Kwota powyżej limitu autonomicznego przetwarzania | Tak, per klient |
| Wprowadzenie nowej reguły | Pierwsze zastosowanie nowego zestawu reguł | W fazie uczenia |
HITL jako techniczne zasada architektoniczna
W architekturze Gosign Human-in-the-Loop jest zaimplementowany w Decision Layer. Decyzja o tym, kiedy czlowiek jest wlaczany, opiera sie na trzech kryteriach:
Confidence Routing: Kazda decyzja agenta ma wartosc pewnosci. Jeśli pewność spada poniżej zdefiniowanego progu, nastepuje automatyczna eskalacja. Prog jest konfigurowalny dla kazdego klienta.
Klasyfikacja ryzyka: Okreslone typy decyzji sa zawsze eskalowane niezaleznie od pewnosci. Decyzje z potencjalem dyskryminacyjnym, kwestie wymagajace konsultacji, przekroczenia progow wartosci.
Regularna obowiazkowa eskalacja: Nowe zestawy regul stosowane po raz pierwszy zawsze przechodza przez ludzka weryfikacje w fazie wdrozeniowej. Dopiero po zwalidowanej fazie uczenia agent przechodzi w tryb autonomiczny - dla tej konkretnej reguly.
Wymaganie Human-in-the-Loop jest technicznie wymuszone. Nie ma obejscia, nie ma skrotu, nie ma nadpisania przez administratora. Agent nie może ominąć eskalacji.
Jak HITL wyglada w praktyce
Agent HR przetwarza wniosek o premia. Document Agent odczytuje wniosek. Knowledge Agent sprawdza obowiazujace porozumienie zakladowe. Decision Layer ocenia:
Wynik: premia kwalifikuje sie do zatwierdzenia zgodnie z porozumieniem zakladowym, paragraf 12, ust. 3. Pewnosc: 94%. Ryzyko: niskie.
Ale: decyzja dotyczy komponentu wynagrodzenia. W konfiguracji HITL zdefiniowano: decyzje o wynagrodzeniach sa zawsze eskalowane, niezaleznie od pewnosci. Workflow sie zatrzymuje.
Odpowiedzialny pracownik widzi w dashboardzie: wniosek, propozycje agenta, zastosowana regule w aktualnej wersji, wartosc pewnosci, powod eskalacji. Weryfikuje, potwierdza lub koryguje. Jego decyzja jest dokumentowana w Audit Trail, lacznie z informacja, ze to byla decyzja Human-in-the-Loop.
HITL i Rada Zakladowa
Human-in-the-Loop to techniczna odpowiedz na wymog organizacyjny: prawo do konsultacji. W Polsce Rada Zakladowa, dzialajaca na podstawie Ustawy o radach pracownikow (2006), ma prawo do informacji i konsultacji przy wdrazaniu systemow technicznych wplywajacych na warunki pracy. Związki zawodowe mogą negocjować szczegółowe warunki w porozumieniach zakladowych.
Decision Layer przeksztalca porozumienia zakladowe w techniczne constrainty. Jesli porozumienie zakladowe stanowi: “Decyzje o ocenach pracowniczych nie mogą być podejmowane w pełni automatycznie” - to jest to implementowane jako reguła HITL w Decision Layer. Agent nie może ominąć tej reguły.
Wynik: Rada Zakładowa może zweryfikować, ze jej wymagania sa technicznie egzekwowane - nie tylko organizacyjnie obiecane. W przeciwienstwie do niemieckiego modelu, gdzie Rada ma prawo weta, w Polsce prawo do konsultacji nie blokuje wdrozenia, ale pracodawca musi wykazac, ze uwzglednil stanowisko Rady. Decision Layer dokumentuje ten proces automatycznie.
HITL i EU AI Act
EU AI Act wymaga nadzoru ludzkiego (Human Oversight, Art. 14) dla systemow AI wysokiego ryzyka. Procesy HR wyraznie podlegaja kategorii wysokiego ryzyka: rekrutacja, oceny wynikow, awanse, wynagrodzenia, zwolnienia.
Human-in-the-Loop jako zasada architektoniczna spelnia wymagania EU AI Act dotyczace Human Oversight. Nie wystarczy miec czlowieka w procesie, który teoretycznie może interweniować. EU AI Act wymaga efektywnego nadzoru ludzkiego - to oznacza: człowiek musi być w stanie zrozumieć decyzję, musi móc ją zatrzymać, a jego interwencja musi być udokumentowana.
Decision Layer dokumentuje przy kazdej decyzji HITL: kto weryfikowal, kiedy, jaka byla propozycja agenta, jaka byla ludzka decyzja, czy sie zgadzaja czy roznia.
Granice: czego HITL nie rozwiazuje
Human-in-the-Loop nie jest rozwiązaniem wszystkich problemów governance. Konkretnie:
HITL nie rozwiazuje problemu biasu w danych treningowych. Jesli model jezykowy jest systematycznie uprzedzony, pracownik nie wykryje tego na podstawie pojedynczych przypadkow. Do tego potrzebny jest statystyczny monitoring biasu obejmujacy wszystkie decyzje agentow.
HITL nie skaluje sie liniowo. Jesli agent podejmuje 10 000 decyzji dziennie i 20% jest eskalowanych, potrzebujesz zasobow na 2000 recznych weryfikacji. Progi HITL muszą być skalibrowane tak, aby wskaznik eskalacji pozostal zarzadzalny bez kompromisow w governance.
HITL to jeden element architektury governance - obok Audit Trail, monitoringu biasu, wersjonowania zestawow regul i kontroli Cert-Ready.
Więcej na ten temat: Konsultacja i AI
Umow spotkanie - Pokazemy, jak Human-in-the-Loop wyglada w Twojej architekturze.

Bert Gogolin
Dyrektor Generalny, Gosign
AI Governance Briefing
Enterprise AI, regulacje i infrastruktura - raz w miesiącu, bezpośrednio ode mnie.