Sicherheit
← Zurück zur Übersicht
Practitioner Sicherheit 45 Min

KI-Compliance in der Praxis: Von der Vorschrift zur Umsetzung

Praktische Anleitung zur Umsetzung von KI-Compliance: Risikoanalysen, Impact Assessments, Governance-Frameworks und technische Massnahmen für EU AI Act, DSGVO und branchenspezifische Vorschriften.

Visual Summary

Klicken zum Vergrößern

KI-Compliance in der Praxis: Von der Vorschrift zur Umsetzung - Sketchnote

KI-Compliance in der Praxis: Von der Vorschrift zur Umsetzung

Lektion 1: Warum KI-Compliance mehr ist als der EU AI Act

Wenn in Unternehmen über KI-Compliance gesprochen wird, fällt fast immer zürst der EU AI Act. Das ist verständlich, denn er ist das weltweit erste umfassende KI-Gesetz und betrifft praktisch jedes Unternehmen, das KI einsetzt oder entwickelt. Doch wer glaubt, mit der Erfüllung des EU AI Act sei die Compliance-Arbeit erledigt, irrt gewaltig. KI-Compliance ist ein vielschichtiges Feld, das Datenschutzrecht, Arbeitsrecht, Wettbewerbsrecht, branchenspezifische Regulierung und freiwillige Standards umfasst, und all diese Bereiche überschneiden und ergänzen sich.

Die DSGVO beispielsweise bleibt auch nach Inkrafttreten des EU AI Act das zentrale Regelwerk für den Umgang mit personenbezogenen Daten. Und da die meisten KI-Systeme auf Daten trainiert werden, die direkt oder indirekt Rückschlüsse auf Personen zulassen, ist die DSGVO in fast jedem KI-Projekt relevant. Artikel 22 der DSGVO, der automatisierte Einzelentscheidungen regelt, wird im KI-Kontext besonders wichtig: Wenn ein KI-System über Kreditanträge, Bewerbungen oder Versicherungsprämien entscheidet, haben die Betroffenen das Recht auf eine Erklärung und auf menschliche Überprüfung.

Hinzu kommen branchenspezifische Vorschriften. Im Finanzsektor müssen KI-Modelle die Anforderungen der BaFin an die Modellvalidierung erfüllen. Im Gesundheitswesen gelten die Vorschriften für Medizinprodukte, die ein KI-gestütztes Diagnosetool als Medizinprodukt einstufen können. Im Arbeitsrecht stellt sich die Frage, ob der Betriebsrat bei der Einführung eines KI-basierten Bewerbermanagementsystems mitbestimmen muss, und die Antwort lautet in den meisten Fällen: ja.

Für Unternehmen bedeutet das: KI-Compliance ist kein einmaliges Projekt, sondern ein fortlaufender Prozess, der rechtliche, technische und organisatorische Massnahmen verbindet. Wer das früh versteht und entsprechend plant, spart sich später teure Nachbesserungen und schmerzhafte Bussgelder.

Lektion 2: Den EU AI Act verstehen und anwenden

Der EU AI Act trat im August 2024 in Kraft und entfaltet seine Wirkung stufenweise bis 2027. Für Unternehmen ist es entscheidend zu verstehen, welche Pflichten sie wann treffen und in welche Risikokategorie ihre KI-Systeme fallen. Die risikobasierte Klassifizierung ist das Herzstuck des Gesetzes und bestimmt, welche Anforderungen zu erfüllen sind.

Auf der niedrigsten Stufe stehen KI-Systeme mit minimalem Risiko, etwa Spamfilter oder KI-gestützte Empfehlungssysteme in Online-Shops. Für diese gelten kaum Auflagen. KI-Systeme mit begrenztem Risiko, etwa Chatbots, müssen lediglich Transparenzpflichten erfüllen: Der Nutzer muss wissen, dass er mit einer KI interagiert. Die eigentliche Herausforderung beginnt bei Hochrisiko-KI-Systemen, und diese Kategorie ist breiter, als viele denken.

Als Hochrisiko gelten KI-Systeme in den Bereichen Personalmanagement, Bildung, Kreditvergabe, Strafverfolgung, Migration und kritische Infrastruktur. Ein KI-gestütztes Tool zur Vorauswahl von Bewerbungen fällt ebenso darunter wie ein System zur Betrugserkennung bei Versicherungen oder ein Algorithmus zur Priorisierung von Notrufen. Für diese Systeme verlangt der EU AI Act umfassende Dokumentation, Risikomanagement, Datenqualitätssicherung, menschliche Aufsicht und regelmässige Überwachung.

Ein praktisches Beispiel verdeutlicht die Anforderungen: Ein mittelständisches Personaldienstleistungsunternehmen setzt ein KI-System ein, das Bewerbungen analysiert und eine Rangfolge erstellt. Nach dem EU AI Act muss dieses Unternehmen ein Risikomanagementsystem etablieren, die Trainingsdaten auf Verzerrungen prüfen, eine technische Dokumentation erstellen, menschliche Aufsicht sicherstellen und das System nach dem Go-Live kontinuierlich überwachen. Das klingt aufwendig, und das ist es auch, aber es ist machbar, wenn man systematisch vorgeht.

Lektion 3: Das KI-Compliance-Framework aufbauen

Ein KI-Compliance-Framework ist kein Dokument, das einmal geschrieben und dann in der Schublade verschwindet. Es ist eine lebende Struktur aus Prozessen, Verantwortlichkeiten und Werkzeugen, die sicherstellt, dass jedes KI-System im Unternehmen den geltenden Vorschriften entspricht, und zwar nicht nur zum Zeitpunkt der Einführung, sondern während des gesamten Lebenszyklus.

Der Ausgangspunkt ist ein KI-Inventar. Viele Unternehmen wissen gar nicht genau, wie viele KI-Systeme sie im Einsatz haben. Wenn Mitarbeitende ChatGPT für Zusammenfassungen nutzen, die Marketing-Abteilung KI-generierte Bilder erstellt und der Vertrieb ein KI-gestütztes Lead-Scoring einsetzt, sind das drei KI-Anwendungen mit unterschiedlichen Risikoprofilen. Das KI-Inventar erfasst alle Systeme, kategorisiert sie nach Risikostufe und dokumentiert Zweck, Datenquellen, Verantwortliche und Nutzerkreis.

Auf Basis des Inventars wird ein Risikobewertungsprozess etabliert. Jedes neue KI-System durchläuft vor der Einführung eine strukturierte Prüfung: Welche Daten werden verarbeitet? Welche Entscheidungen werden beeinflusst? Wer ist betroffen? Welche Fehler können auftreten, und welche Konsequenzen hätten sie? Diese Bewertung bestimmt, welche Massnahmen erforderlich sind, von einer einfachen Dokumentation bis hin zu einem vollständigen Konformitätsverfahren.

Die organisatorische Verankerung ist entscheidend. Erfolgreiche Unternehmen benennen eine KI-Compliance-Funktion, die entweder als eigenständige Rolle oder als Erweiterung der bestehenden Compliance-Abteilung agiert. Diese Funktion arbeitet eng mit der IT, der Rechtsabteilung und den Fachbereichen zusammen und stellt sicher, dass Compliance nicht als Bremse wahrgenommen wird, sondern als Qualitätsmerkmal. Denn ein Unternehmen, das seine KI-Systeme sauber dokumentiert, regelmässig überprüft und transparent kommuniziert, gewinnt das Vertrauen von Kunden, Partnern und Aufsichtsbehörden.

Lektion 4: Risikoanalyse und Impact Assessments für KI-Systeme

Die Risikoanalyse ist das praktische Herzstuck der KI-Compliance. Sie beantwortet die Frage: Was kann schiefgehen, und wie wahrscheinlich ist das? Im Kontext von KI-Systemen ist diese Frage komplexer als bei herkömmlicher Software, weil KI-Systeme sich verändern können, weil ihre Entscheidungen nicht immer nachvollziehbar sind und weil ihre Auswirkungen auf Menschen schwer vorherzusagen sein können.

Ein bewäaehrtes Instrument ist das Algorithmic Impact Assessment, kurz AIA. Es wurde ursprünglich in Kanada entwickelt und hat sich inzwischen als internationaler Standard etabliert. Das AIA bewertet ein KI-System entlang mehrerer Dimensionen: Welchen Zweck verfolgt es? Welche Daten nutzt es? Welche Personengruppen sind betroffen? Wie transparent ist die Entscheidungsfindung? Welche Feedback-Mechanismen gibt es? Und welche Massnahmen zur Risikominimierung sind implementiert?

In der Praxis läuft ein AIA typischerweise so ab: Ein interdisziplinäres Team aus Fachexperten, Entwicklern, Juristen und, wenn möglich, Vertretern der betroffenen Personengruppen füllt einen strukturierten Fragebogen aus. Dieser Fragebogen umfasst oft 50 bis 100 Fragen und deckt technische, ethische, rechtliche und organisatorische Aspekte ab. Das Ergebnis ist ein Risikoprofil, das die Grundlage für konkrete Massnahmen bildet.

Ein konkretes Beispiel: Eine Versicherung möchte ein KI-System zur automatisierten Schadensbewertung einführen. Das AIA würde unter anderem prüfen, ob das System bestimmte Personengruppen systematisch benachteiligt, ob die Betroffenen die Möglichkeit haben, die Entscheidung anzufechten, ob die Trainingsdaten repräsentativ sind und ob ein menschlicher Sachbearbeiter in kritischen Fällen eingreift. Auf Basis dieser Analyse werden Massnahmen definiert: regelmässige Fairness-Audits, eine Beschwerdehotline, Stichprobenkontrollen durch Menschen und ein Monitoring-Dashboard, das Auffälligkeiten in Echtzeit anzeigt.

Lektion 5: Technische Compliance — Erklärbarkeit, Fairness und Monitoring

KI-Compliance hat nicht nur eine juristische, sondern auch eine technische Dimension. Der EU AI Act verlangt für Hochrisiko-Systeme unter anderem Erklärbarkeit, Fairness und kontinuierliches Monitoring. Diese Anforderungen müssen in der technischen Architektur des KI-Systems verankert sein, nicht erst nachträglich aufgesetzt werden.

Erklärbarkeit, im Englischen Explainability, bedeutet, dass die Entscheidungen eines KI-Systems für die Betroffenen nachvollziehbar sein müssen. Das ist bei einfachen Modellen wie Entscheidungsbäumen kein Problem, bei komplexen neuronalen Netzen jedoch eine echte Herausforderung. Technische Ansätze wie SHAP (SHapley Additive exPlanations) und LIME (Local Interpretable Model-agnostic Explanations) erzeugen Erklärungen, die zeigen, welche Faktoren eine bestimmte Entscheidung beeinflusst haben. Ein Kreditscoring-System könnte dem Antragsteller beispielsweise mitteilen: Ihr Antrag wurde abgelehnt, weil die Kombination aus kurzer Beschäftigungsdauer und hoher bestehender Kreditbelastung das Ausfallrisiko über unseren Schwellenwert hebt.

Fairness ist ein weiteres Kernthema. Ein KI-System darf bestimmte Personengruppen nicht systematisch benachteiligen, sei es aufgrund von Geschlecht, Alter, Herkunft oder anderen geschützten Merkmalen. Die technische Umsetzung ist komplex, denn es gibt mehrere mathematische Definitionen von Fairness, die sich teilweise widersprechen. In der Praxis werden regelmässige Fairness-Audits durchgeführt, bei denen die Ergebnisse des KI-Systems nach verschiedenen Gruppen aufgeschlüsselt und auf systematische Unterschiede geprüft werden.

Kontinuierliches Monitoring schliesslich stellt sicher, dass ein KI-System auch nach dem Go-Live zuverlässig arbeitet. KI-Modelle können sich über die Zeit verschlechtern, etwa weil sich die Eingangsdaten verändern, ein Phänomen, das als Data Drift bezeichnet wird. Ein Monitoring-System erkennt solche Veränderungen frühzeitig und löst Alarm aus, bevor das Modell fehlerhafte Entscheidungen trifft. Typische Metriken umfassen die Modellgenauigkeit, die Verteilung der Eingangsdaten, die Verteilung der Vorhersagen und die Häufigkeit menschlicher Eingriffe.

Lektion 6: KI-Compliance im Unternehmensalltag verankern

Die beste Compliance-Strategie nützt nichts, wenn sie im Alltag nicht gelebt wird. Die grösste Herausforderung bei der Umsetzung von KI-Compliance ist nicht die Technik und nicht das Recht, sondern der Mensch. Mitarbeitende müssen verstehen, warum Compliance wichtig ist, welche Regeln gelten und wie sie im Tagesgeschäft umgesetzt werden.

Schulungen sind der erste Baustein. Dabei geht es nicht um mehrtägige Seminare, sondern um praxisnahe, rollenspezifische Trainings. Ein Entwickler braucht andere Inhalte als ein Fachbereichsleiter, und ein Vorstandsmitglied andere als ein Sachbearbeiter. Besonders wirksam sind Fallstudien aus der eigenen Branche: Was ist bei einem Wettbewerber schiefgelaufen? Welche Bussgelder wurden verhängt? Welche Reputationsschäden sind entstanden? Solche Beispiele machen abstrakte Vorschriften greifbar.

Der zweite Baustein sind klare Prozesse. Jedes Unternehmen, das KI einsetzt, sollte einen KI-Governance-Prozess definieren, der festlegt, wer neue KI-Systeme genehmigt, wer die Risikobewertung durchführt, wer für das Monitoring verantwortlich ist und wer bei Problemen eingreift. Dieser Prozess muss einfach genug sein, um im Alltag praktikabel zu bleiben, und streng genug, um echte Risiken zu verhindern. Ein zweiseitiges Formular, das jeder Fachbereich vor der Einführung eines neuen KI-Tools ausfüllt, kann wirkungsvoller sein als ein hundert Seiten starkes Compliance-Handbuch.

Der dritte Baustein ist die Dokumentation. Der EU AI Act verlangt umfassende technische Dokumentation für Hochrisiko-Systeme, aber auch für KI-Systeme niedrigerer Risikostufen empfiehlt sich eine Basisdokumentation. Diese sollte den Zweck des Systems, die verwendeten Daten, die Leistungsmetriken, bekannte Limitationen und die verantwortlichen Ansprechpartner umfassen. Die Dokumentation ist nicht nur rechtlich relevant, sondern auch praktisch wertvoll: Wenn ein Mitarbeiter das Unternehmen verlässt, muss jemand anderes das System verstehen und warten können.

Lektion 7: Ausblick — KI-Regulierung im internationalen Vergleich

Die EU ist mit dem AI Act Vorreiter, aber nicht allein. Weltweit entstehen KI-Regulierungsrahmen, die sich in Philosophie und Ausprägangsform deutlich unterscheiden. Für international tätige Unternehmen ist es wichtig, diese Unterschiede zu kennen und ihre Compliance-Strategie entsprechend auszurichten.

Die USA verfolgen einen weitgehend sektoralen Ansatz. Es gibt kein übergreifendes KI-Gesetz, aber zahlreiche behördliche Richtlinien und branchenspezifische Vorschriften. Die Federal Trade Commission überwacht den Einsatz von KI im Verbraucherschutz, die FDA reguliert KI in der Medizin, und einzelne Bundesstaaten wie Colorado haben eigene Gesetze zur KI-gesteuerten Diskriminierung erlassen. Für europäische Unternehmen, die auf dem US-Markt tätig sind, bedeutet das: Die Einhaltung des EU AI Act allein genügt nicht, es müssen zusätzlich die US-spezifischen Vorschriften beachtet werden.

China hat ebenfalls umfangreiche KI-Regulierungen erlassen, die allerdings einen anderen Schwerpunkt setzen. Während der EU AI Act primär auf den Schutz von Grundrechten zielt, betonen die chinesischen Vorschriften die staatliche Kontrolle über Algorithmen und die Verhinderung von Inhalten, die als staatsfeindlich gelten. Für westliche Unternehmen, die KI-Produkte in China einsetzen oder dort entwickeln lassen, ergeben sich daraus erhebliche Compliance-Herausforderungen.

Der Trend ist eindeutig: KI-Regulierung wird in den kommenden Jahren weltweit zunehmen. Unternehmen, die heute eine solide Compliance-Infrastruktur aufbauen, werden in der Lage sein, neue Vorschriften schnell zu integrieren. Wer dagegen abwartet und hofft, dass die Regulierungswelle an ihm vorbeizieht, wird später mit erheblichem Aufhol- und Investitionsbedarf konfrontiert sein. KI-Compliance ist keine Last, sondern eine Investition in die Zukunftsfähigkeit des Unternehmens.

ComplianceEU AI ActDSGVORisikomanagementKI-Governance
← Weitere Kurse entdecken