Przejdź do treści

7-warstwowa architektura referencyjna

Korporacyjne AI Agents potrzebują więcej niż LLM. Ta architektura rozdziela interfejs użytkownika, orkiestrację, agentów, logikę decyzyjną, modele, integracje i infrastrukturę na siedem niezależnych warstw. Governance przenika wszystkie warstwy jako komponent przekrojowy.

Dlaczego siedem warstw

Monolityczny system AI nie jest audytowalny, nie skaluje się i nie jest możliwy do utrzymania. Architektura 7-warstwowa rozdziela odpowiedzialności: każda warstwa ma zdefiniowane zadanie i czyste interfejsy. Zmiana modelu nie wpływa na logikę biznesową. Nowy system docelowy nie zmienia agenta. Nowe wymaganie zgodności z RODO czy EU AI Act nie zmienia infrastruktury.

Architektura wynika z wymagań korporacyjnych: izolacja tenantów, Audit Trail, transparentność dla Rady Zakładowej (prawo do informacji i konsultacji zgodnie z Ustawą o radach pracowników), zgodność z EU AI Act, agnostyczne wobec modeli wdrożenie. Standardowe API LLM nie zapewniają żadnego z tych elementów.

Architektura referencyjna: 7 warstw z Governance jako komponentem przekrojowym - Presentation, Orchestration, Agent, Decision Layer, Model, Integration, Infrastructure

1. Presentation Layer

Interfejs między systemem a użytkownikiem. Bez logiki biznesowej, bez decyzji - tylko wyświetlanie i wprowadzanie danych.

  • Chat UI: Interfejs webowy dla użytkowników końcowych (kadry, księgowi). Gotowy na PWA, responsywny.
  • Dashboard: Przegląd statusu agentów, bieżących workflow, otwartych eskalacji. Oparty na rolach: pracownicy widzą swoje sprawy, menedżerowie widzą wskaźniki.
  • Portal Audytora: Dostęp audytora do Audit Trail, kontroli, dowodów. Tylko odczyt. Dla biegłych rewidentów, Rady Zakładowej, rewizji wewnętrznej.
  • REST API: Interfejs maszynowy do integracji z istniejącymi systemami. Wersjonowany, udokumentowany, z uwierzytelnianiem.

2. Orchestration Layer

Koordynuje przepływ danych między agentami, systemami i użytkownikami. Zarządza workflow, kolejkami i routingiem API.

  • Silnik workflow: Silniki open source (Trigger.dev, Camunda) do złożonych, wieloetapowych procesów. Wizualne workflow, integracja API, webhooki.
  • API Gateway: Jednolity punkt wejścia z rate limiting, uwierzytelnianiem, logowaniem, monitoringiem.
  • System kolejek: Asynchroniczne przetwarzanie dla operacji wsadowych (zamknięcie miesiąca, masowy import).
  • System zdarzeń: Reakcja w czasie rzeczywistym na przychodzące dokumenty, zmiany statusu, eskalacje.

3. Agent Layer

Wyspecjalizowane AI Agents wykonujące zadania fachowe. Każdy agent ma zdefiniowany zakres i działa w granicach wyznaczonych przez Decision Layer.

Document Agents

Czytają, rozumieją i przetwarzają dokumenty z rzeczywistym rozumieniem językowym. Faktury, zwolnienia lekarskie, umowy, zaświadczenia, paragony. Nie rozpoznawanie szablonów, nie sztywne reguły - lecz kontekstowe rozumienie.

Workflow Agents

Orkiestrują procesy między systemami. Gdy dokument musi być odczytany, decyzja podjęta i akcja wywołana w systemie docelowym - Workflow Agent koordynuje sekwencję.

Knowledge Agents

Dostarczają kontekstowe odpowiedzi z wiedzy korporacyjnej. Regulaminy, polityki, układy zbiorowe pracy, reguły compliance. Odpowiedź zawiera źródło i wersję reguły.

4. Decision Layer

Rozkłada każdy proces biznesowy na pojedyncze kroki decyzyjne i definiuje dla każdego kroku: człowiek, zestaw reguł lub AI. Każda decyzja jest dokumentowana - do audytu przez biegłych rewidentów, Radę Zakładową i rewizję wewnętrzną.

Rules Engine: Fachowe zestawy reguł, wersjonowane i identyfikowalne. Układy zbiorowe pracy, porozumienia zakładowe, logika księgowa, reguły compliance. Każda reguła ma wersję, datę obowiązywania i zakres.

Confidence Routing: Automatyczna ocena pewności decyzji. Wysoka pewność i niskie ryzyko: autonomiczna decyzja. Niska pewność lub wysokie ryzyko: eskalacja do człowieka.

Human-in-the-Loop: Architektonicznie wymuszona kontrola człowieka przy zdefiniowanych typach decyzji. Ryzyko uprzedzeń, potencjał dyskryminacji, tematy wymagające konsultacji z Radą Zakładową.

Audit Trail: Kompletna, niezmienna dokumentacja każdej decyzji. Wejście, model, ocena, reguła, wynik, znacznik czasu. Append-only.

Więcej: Decision Layer w szczegółach · Trzy rodzaje decyzji AI

5. Model Layer

Warstwa LLM. Wymienna, agnostyczna wobec modeli, oddzielona od logiki biznesowej.

Cloud LLM

Claude (Anthropic), ChatGPT (OpenAI), Gemini (Google) - przez regiony UE poszczególnych dostawców chmurowych.

Open-Source / Open-Weight LLM

Llama (Meta), Mistral, DeepSeek, gpt-oss (OpenAI, Apache 2.0) - w pełni self-hostowalne na własnym hardware. gpt-oss-120B działa na pojedynczym H100, gpt-oss-20B na 16 GB hardware konsumenckim.

Hybryda

Cloud LLM dla standardowych zadań, Self-Hosted LLM dla danych wrażliwych. Automatyczny routing według klasyfikacji danych.

Wybór modelu to kompromis między wydajnością, kosztami, ochroną danych i latencją. Warstwa modelu jest wymienna - zmiana modelu nie wpływa na logikę biznesową powyżej.

Konkretne opcje hostingu, wymagania sprzętowe i stos technologiczny: AI Infrastructure w szczegółach

6. Integration Layer

Połączenie z istniejącymi systemami korporacyjnymi. Agent nie zastępuje systemów - rozszerza je.

Kategoria systemu Integracja
ERP / FinanseSAP FI/CO, SAP S/4HANA, Comarch, Oracle Financials
HR / PayrollSAP SuccessFactors, Workday, Comarch HR
CollaborationSharePoint, Microsoft Teams (via Microsoft Graph)
DMS / ECMSharePoint, d.velop, ELO, nscale
PozostałeKażdy system z interfejsem REST lub SOAP

Logika agenta jest oddzielona od systemu docelowego. Logika księgowa jest oddzielona od eksportu. Gdy system docelowy się zmienia (np. z Comarch na SAP), zmienia się warstwa eksportu - nie agent.

7. Infrastructure Layer

Fundament wdrożeniowy. Cała architektura działa w infrastrukturze klienta - nie u Gosign, nie u zewnętrznego dostawcy.

  • Cloud (UE): Azure, AWS lub GCP - wyłącznie regiony UE. Managed Kubernetes, Managed Databases, LLM Hosting.
  • Managed EU: Vercel EU + Supabase EU. Lekka opcja UE bez własnej infrastruktury Kubernetes.
  • Self-Hosted: Własne serwery, własne centrum danych. Docker/Kubernetes, open-source LLM na własnych GPU. Pełna niezależność od Cloud Act.
  • Hybryda: Kombinacja według klasyfikacji danych. Wrażliwe obciążenia self-hosted, standardowe obciążenia w chmurze.

Wszystkie warstwy powyżej infrastruktury pozostają identyczne - niezależnie od modelu wdrożenia.

Regiony chmurowe, wymiarowanie hardware, stos technologiczny: AI Infrastructure w szczegółach

Governance jako warstwa przekrojowa

Governance nie jest pojedynczą warstwą, lecz przenika całą architekturę. Każda warstwa generuje dane governance, każda warstwa jest kontrolowana przez reguły governance.

  • Presentation: Dostęp oparty na rolach, Portal Audytora
  • Orchestration: Logowanie workflow, dokumentacja eskalacji
  • Agent: Decyzje agentów generują wpisy Audit Trail
  • Decision Layer: Rules Engine, Confidence Routing, Human-in-the-Loop
  • Model: Śledzenie wersji modelu, haszowanie danych wejściowych, odtwarzalność
  • Integration: Logowanie interfejsów, dokumentacja przepływu danych
  • Infrastructure: Szyfrowanie, Row-Level Security, izolacja tenantów

EU AI Act · Cert-Ready by Design · Współzarządzanie · Data Residency

Runtime i skalowanie

Eksploatacja produkcyjna nie jest dodatkową pracą, lecz częścią architektury. Architektura 7-warstwowa jest zaprojektowana do pracy pod obciążeniem.

  • Orkiestracja kontenerów: Wdrożenie oparte na Kubernetes. Każda warstwa działa we własnych kontenerach, niezależnie skalowalna.
  • Skalowanie horyzontalne: Agent Layer i Model Layer skalują się horyzontalnie według obciążenia. Nowy agent to więcej podów, nie więcej architektury.
  • Health Checks i Self-Healing: Liveness i Readiness Probes na wszystkich kontenerach. Automatyczny restart przy awarii, automatyczne przekierowanie przy przeciążeniu.
  • Monitoring i alerting: Metryki Prometheus na wszystkich warstwach. Dashboardy Grafana dla latencji, throughput, error rates, queue depth. Alerty przy przekroczeniu progów.
  • CI/CD: Wdrożenia oparte na GitOps. Infrastructure as Code (Terraform/Pulumi). Automatyczne testy, wdrożenia Blue-Green lub Canary.

Architektura danych

Dane przepływają przez wszystkie siedem warstw. Architektura definiuje, gdzie dane powstają, jak są przechowywane i kto ma dostęp.

  • Przepływ danych: Input (dokument, zapytanie) → Agent (analiza) → Decision Layer (decyzja) → Integration (eksport do systemu docelowego). Każdy krok generuje wpis Audit Trail.
  • Vector Store: PostgreSQL z pgvector do wyszukiwania semantycznego (RAG). Wiedza korporacyjna przechowywana jako embeddingi, nie przesyłana do zewnętrznych usług.
  • Izolacja tenantów: Row-Level Security (RLS) na poziomie bazy danych. Wymuszona architektonicznie, nie na poziomie logiki aplikacji. Każdy tenant jest w pełni izolowany.
  • Szyfrowanie: At rest (AES-256) i in transit (TLS 1.3). Zarządzanie kluczami przez dostawcę tożsamości klienta lub Hardware Security Modules (HSM).
  • Retencja danych: Konfigurowana według wymagań. Zgodność z RODO Art. 17 (prawo do usunięcia) realizowana poprzez anonimizację zamiast usuwania.
  • Backup i recovery: Automatyczne kopie zapasowe, Point-in-Time Recovery. Recovery Point Objective (RPO) i Recovery Time Objective (RTO) konfigurowane per tenant.

Architektura interfejsów

Architektura komunikuje się poprzez zdefiniowane interfejsy - wewnętrznie między warstwami i zewnętrznie z systemami źródłowymi i docelowymi.

  • REST API: Wersjonowane API (v1, v2) z dokumentacją OpenAPI. Breaking changes tylko w nowych wersjach, stare wersje utrzymywane równolegle.
  • Event-Driven: Przetwarzanie zdarzeń oparte na webhookach dla reakcji w czasie rzeczywistym. Przychodzący dokument → zdarzenie → agent przetwarza. Bez pollingu, bez opóźnienia batch.
  • MCP (Model Context Protocol): Standaryzowany protokół do integracji narzędzi w agentach LLM. Agenci korzystają z zewnętrznych narzędzi przez MCP - typizowane, udokumentowane, audytowalne.
  • Przetwarzanie wsadowe: Dla operacji masowych (zamknięcie miesiąca, rozliczenie roczne, masowy import). Oparte na kolejkach ze śledzeniem postępu i obsługą błędów.
  • API Gateway: Centralny punkt wejścia. Uwierzytelnianie (SSO/OIDC), rate limiting, logowanie żądań, monitoring. Oddziela wewnętrzną architekturę od zewnętrznych konsumentów.

Zasady projektowe

Agnostyczna wobec modeli: Brak vendor lock-in na pojedynczego LLM. Modele są wymienne. Dziś Claude, jutro gpt-oss, pojutrze model, który dziś jeszcze nie istnieje.

Agnostyczna wobec infrastruktury: Ta sama architektura na Azure, AWS, GCP, Self-Hosted lub Hybryda. Wybór infrastruktury jest decyzją klienta, nie architektury.

Agnostyczna wobec systemów: Logika agenta jest oddzielona od systemu docelowego. Logika księgowa oddzielona od eksportu. Zmiana systemu zmienia Integration Layer, nie agenta.

Governance by Design: Audit Trail, RBAC, Decision Layer i Human-in-the-Loop to komponenty architektoniczne - nie opcjonalne funkcje dodawane później.

Cert-Ready by Design: Kontrole jako obiekty danych pierwszej klasy z automatycznym generowaniem dowodów. ISO 27001, PS 951, SOC 2 - architektura dostarcza dowody.

Dostęp do kodu: Pełny dostęp do kodu źródłowego, wszystkich promptów i zestawów reguł. Konfiguracje i zestawy reguł pozostają u klienta. Stos open source tam, gdzie to możliwe. Po 12-18 miesiącach klient operuje agentami samodzielnie.

Decision Layer - przepływ decyzji

┌──────────┐    ┌──────────────┐    ┌────────────────┐
│  Input   │───>│  AI Agent    │───>│ Decision Layer │
│(dokument,│    │  analizuje,  │    │                │
│ zapytanie)│    │  rozumie,    │    │  Sprawdź        │
└──────────┘    │  ocenia      │    │  reguły         │
└──────────────┘    │                │
│  Oceń           │
│  pewność        │
│                │
│  Routing        │
│  zdecyduj       │
└───────┬────────┘
│
┌─────────────┴──────────────┐
│                            │
┌────────┴────────┐        ┌──────────┴──────────┐
│ Autonomicznie   │        │ Human-in-the-Loop   │
│                 │        │                     │
│ Wysoka pewność  │        │ Ryzyko uprzedzeń    │
│ Niskie ryzyko   │        │ Niska pewność       │
│ Brak            │        │ Ograniczenie        │
│ ograniczeń      │        │ Konsultacja RZ      │
└────────┬────────┘        └──────────┬──────────┘
│                            │
│         ┌──────────────┐   │
│         │  Człowiek    │   │
│         │  decyduje    │◄──┘
│         └──────┬───────┘
│                │
┌────────┴────────────────┴────────┐
│         Audit Trail              │
│  Input · Model · Reguła ·        │
│  Ocena · Wynik ·                 │
│  Znacznik czasu                  │
└──────────────────────────────────┘
│
┌────────┴────────┐
│  System docelowy│
│  (ERP, HR,      │
│   Payroll)      │
└─────────────────┘
Schematyczny przepływ decyzji przez Decision Layer. W środowisku produkcyjnym każdy krok jest dokumentowany jako wpis Audit Trail.

Pogłębienie

Implementacja

AI Infrastructure

Konkretne technologie, regiony chmurowe, wymiarowanie hardware, tabela stosu technologicznego.

Infrastruktura w szczegółach →

Wiedza

Blueprint 2026

Jedenaście artykułów o decyzjach infrastrukturalnych, które mają znaczenie w 2026.

Do serii artykułów →

Agenci

AI Agents

Document Agents, Workflow Agents, Knowledge Agents - trzy typy agentów dla procesów enterprise.

Do AI Agents →

Governance

Framework Governance

EU AI Act, Cert-Ready, Współzarządzanie, Data Residency - wszystkie tematy governance w jednym miejscu.

Przegląd Governance →

Często zadawane pytania o architekturę referencyjną

Dlaczego osobna architektura zamiast standardowych API LLM?

Standardowe API LLM dostarczają rozumienie języka, ale nie governance, nie Audit Trail, nie izolację tenantów, nie model uprawnień. Architektura 7-warstwowa to warstwa między LLM a systemem korporacyjnym, która dokładnie to uzupełnia. Bez tej warstwy każdy LLM pozostaje eksperymentem.

Czy architektura jest agnostyczna wobec modeli?

Tak. Warstwa modelu jest wymienna. Aktualnie wspierane: Claude, ChatGPT, Gemini, Llama, Mistral, DeepSeek, gpt-oss. Nowe modele są integrowane bez zmian w warstwach powyżej. Brak vendor lock-in na pojedynczego dostawcę LLM.

Jak architektura skaluje się przy rosnącym obciążeniu?

Każda warstwa skaluje się niezależnie. Agent Layer i Model Layer mogą być skalowane horyzontalnie bez zmian w Decision Layer ani integracji. Wdrożenie oparte na Kubernetes umożliwia auto-scaling według obciążenia.

Jak zapewniana jest izolacja tenantów?

Na poziomie bazy danych poprzez Row-Level Security (RLS). Każdy tenant widzi wyłącznie własne dane, reguły i Audit Trail. Izolacja jest wymuszona architektonicznie, nie tylko na poziomie logiki aplikacji.

Czy architekturę można wdrażać etapowo?

Tak. Warstwy są niezależne. Typowe wejście: jeden agent (np. Document Agent) z Decision Layer, podłączony do istniejącego systemu. Kolejni agenci, integracje i funkcje governance są dodawane etapowo.

Czym ta strona różni się od strony infrastruktury?

Ta strona opisuje wzorzec architektoniczny - jakie warstwy istnieją i dlaczego. Strona infrastruktury opisuje konkretną realizację - jakie technologie, jakie regiony chmurowe, jaki hardware. Architektura to co, infrastruktura to jak.

Ocena architektury dla Twojej organizacji

Analizujemy Twój istniejący krajobraz systemowy i pokazujemy, jak architektura 7-warstwowa pasuje do Twojej infrastruktury.

Umów spotkanie