Zum Inhalt springen
Governance & Compliance

EU AI Act: HR-KI ist Hochrisiko ab August 2026

HR-KI ist Hochrisiko nach EU AI Act Anhang III. Sechs Pflichtanforderungen, Fristen und wie der Decision Layer sie erfüllt.

Bert Gogolin
Bert Gogolin
CEO & Gründer 6 Min. Lesezeit

Der EU AI Act stuft fast jedes KI-System in HR-Prozessen als Hochrisiko ein. Ab August 2026 müssen diese Systeme strenge Anforderungen an Risikomanagement, Transparenz und menschliche Aufsicht erfüllen.

Auf einen Blick - HR-KI ist Hochrisiko unter dem EU AI Act

  • KI-Systeme für Recruiting, Leistungsbeurteilungen, Beförderungen und Kündigungen werden unter Anhang III, Nr. 4 des EU AI Act als Hochrisiko eingestuft.
  • Verbotene KI-Praktiken (Social Scoring, Manipulation) gelten seit August 2025. Vollständige Hochrisiko-Pflichten ab August 2026 (das Digital-Omnibus-Paket könnte diese Frist auf Dezember 2027 verschieben).
  • Sechs Pflichtanforderungen: Risikomanagement, Datengovernance, Aufzeichnungspflichten, Transparenz, menschliche Aufsicht und Genauigkeit/Robustheit.
  • Der Decision Layer bildet jede Anforderung architektonisch ab: Confidence Routing für Risiko, versionierte Regelwerke für Datengovernance, Audit Trail für Aufzeichnungen, Human-in-the-Loop für Aufsicht.
  • Bußgelder bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes bei schwersten Verstößen.

Laut einer PwC-Studie (2024) haben nur 24% der Unternehmen, die KI in HR-Prozessen einsetzen, mit der formalen EU-AI-Act-Compliance begonnen - trotz der August-2026-Deadline für Hochrisiko-Systeme.

EU AI Act ArtikelAnforderungDecision Layer Umsetzung
Art. 9RisikomanagementsystemConfidence Routing mit konfigurierbaren Schwellenwerten
Art. 10DatengovernanceVersionierte Regelwerke mit Gültigkeitsdaten
Art. 12AufzeichnungspflichtenUnveränderlicher Audit Trail pro Entscheidung
Art. 13TransparenzAuditor Portal mit vollständigem Entscheidungspfad
Art. 14Menschliche AufsichtErzwungener Human-in-the-Loop für definierte Typen
Art. 15Genauigkeit und RobustheitBias Monitoring und modell-agnostisches Design

Die Einstufung: HR-KI ist Hochrisiko

Der EU AI Act stuft KI-Systeme die in Beschäftigung, Personalmanagement und Zugang zu selbstständiger Erwerbstätigkeit eingesetzt werden, als Hochrisiko ein (Anhang III, Nr. 4). Das betrifft konkret:

KI-Systeme für Recruiting und Bewerberauswahl. KI-Systeme die Einfluss auf Beförderung, Kündigung, Aufgabenzuweisung oder Leistungsüberwachung haben. KI-Systeme die Arbeitsbedingungen beeinflussen - einschließlich Gehaltsanpassungen, Eingruppierungen und Schichtplanung.

Kurz: Fast jeder KI-Agent, der in HR-Prozessen Entscheidungen vorbereitet, unterstützt oder trifft, fällt unter die Hochrisiko-Kategorie.

Die Fristen

Seit August 2025 gelten die Verbote für inakzeptable KI-Praktiken - darunter Social Scoring und manipulative Techniken. Ab August 2026 (das Digital-Omnibus-Paket könnte diese Frist auf Dezember 2027 verschieben) greifen die vollständigen Pflichten für Hochrisiko-KI-Systeme. Die Übergangsfrist ist nicht großzügig: Unternehmen die heute keine Governance-Strukturen aufbauen, werden im August 2026 nicht compliant sein.

Was konkret gefordert wird - und wie der Decision Layer es erfüllt

Die folgenden Anforderungen gelten für jeden Betreiber eines Hochrisiko-KI-Systems im HR-Bereich:

Artikel 9 - Risikomanagementsystem: Der EU AI Act fordert ein kontinuierliches Risikomanagementsystem das Risiken identifiziert, bewertet und mindert. Im Decision Layer wird das durch Confidence Routing umgesetzt: Jede Agenten-Entscheidung wird automatisch nach Konfidenz und Risikokategorie bewertet. Hohes Risiko oder niedrige Konfidenz führt zur Eskalation an einen Menschen. Die Schwellenwerte sind konfigurierbar und dokumentiert.

Artikel 10 - Datengovernance: Versionierte Regelwerke im Decision Layer stellen sicher, dass die Datengrundlage jeder Entscheidung nachvollziehbar ist. Tarifverträge, Betriebsvereinbarungen und Compliance-Regeln haben Versionen, Gültigkeitsdaten und Geltungsbereiche. Bei einer Prüfung ist nachvollziehbar, welches Regelwerk in welcher Version zum Entscheidungszeitpunkt galt.

Artikel 12 - Aufzeichnungspflichten: Der Audit Trail im Decision Layer erzeugt für jede Entscheidung einen vollständigen, unveränderlichen Datensatz: Input, Modell, Regelwerk, Konfidenz, Routing-Entscheidung, Ergebnis, Zeitstempel. Automatisch, nicht nachträglich zusammengestellt.

Artikel 13 - Transparenz: Jede Agenten-Entscheidung ist im Auditor Portal nachvollziehbar. Betriebsräte, Datenschutzbeauftragte und Prüfer können den Entscheidungspfad einsehen. Keine Blackbox.

Artikel 14 - Menschliche Aufsicht: Human-in-the-Loop ist im Decision Layer ein Architekturprinzip, nicht eine optionale Einstellung. Bei definierten Entscheidungstypen - Diskriminierungspotenzial, Mitbestimmungsthemen, Wertgrenzen - erzwingt die Architektur menschliche Prüfung. Ein Agent kann diese Prüfung nicht umgehen.

Artikel 15 - Genauigkeit, Robustheit und Cybersicherheit: Bias Monitoring prüft systematisch auf diskriminierende Muster. Konfidenz-Schwellenwerte stellen sicher, dass der Agent nur bei ausreichender Sicherheit autonom entscheidet. Modell-Agnostik ermöglicht den Wechsel des Sprachmodells ohne Änderung der Governance-Logik.

Kostenloses eBook: KI in HR

EU AI Act Checkliste, Decision-Framework, Betriebsrats-Perspektive und Readiness-Assessment - das Governance-Handbuch für HR-Verantwortliche.

Jetzt kostenlos herunterladen

Was das für HR-Abteilungen bedeutet

Unternehmen die heute KI in HR-Prozessen einsetzen oder einsetzen wollen, müssen bis August 2026 Governance-Strukturen aufbauen. Das bedeutet konkret:

Dokumentierte Entscheidungslogik für jeden KI-gestützten HR-Prozess. Technisch erzwungene Human-in-the-Loop-Mechanismen für Entscheidungen mit Personalbezug. Prüfungssichere Audit Trails die nachvollziehbar machen, wie jede Entscheidung zustande kam. Bias-Monitoring das diskriminierende Muster erkennt und meldet.

In Deutschland kommen die Anforderungen des Betriebsverfassungsgesetzes hinzu: Betriebsräte haben ein Mitbestimmungsrecht bei technischen Einrichtungen die das Verhalten oder die Leistung von Arbeitnehmern überwachen (§ 87 Abs. 1 Nr. 6 BetrVG). KI-Agenten in HR-Prozessen fallen unter diese Kategorie.

Der Decision Layer adressiert beide Anforderungsblöcke - EU AI Act und deutsches Mitbestimmungsrecht - in einer Architektur.

Decision Layer im Detail

Mitbestimmung und Betriebsrat

HR Agent

Termin vereinbaren - Wir zeigen Ihnen, welche Ihrer HR-Prozesse unter die Hochrisiko-Kategorie fallen und wie der Decision Layer die Anforderungen erfüllt.

Bert Gogolin

Bert Gogolin

Geschäftsführer, Gosign

AI Governance Briefing

Enterprise AI, Regulierung und Infrastruktur - einmal im Monat, direkt von mir.

Kein Spam. Jederzeit abbestellbar. Datenschutzerklärung

EU AI Act HR Hochrisiko Decision Layer Governance Compliance
Artikel teilen

Häufige Fragen

Fallen HR-KI-Systeme unter den EU AI Act?

Ja. KI-Systeme die in Beschäftigung, Personalmanagement und Zugang zu selbstständiger Erwerbstätigkeit eingesetzt werden, fallen unter Anhang III Nr. 4 des EU AI Act und gelten als Hochrisiko-KI-Systeme.

Ab wann gelten die Hochrisiko-Pflichten?

Die Pflichten für Hochrisiko-KI-Systeme nach EU AI Act gelten ab August 2026 (das Digital-Omnibus-Paket könnte diese Frist auf Dezember 2027 verschieben). Verbotene KI-Praktiken gelten bereits seit August 2025.

Was passiert wenn ein Unternehmen die Pflichten nicht erfüllt?

Bußgelder bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes. Zusätzlich Reputationsrisiken und potenzielle Haftungsansprüche.

Wie erfüllt der Decision Layer die AI-Act-Anforderungen?

Der Decision Layer bildet die Anforderungen architektonisch ab: Risikomanagement durch Confidence Routing, Datengovernance durch versionierte Regelwerke, Transparenz durch Audit Trail, menschliche Aufsicht durch Human-in-the-Loop.

Welcher Prozess soll Ihr erster Agent übernehmen?

Hinterlassen Sie Ihre E-Mail - Sie erhalten Ihren persönlichen Terminlink sofort.