Definition
Ein AI-Governance-Framework beschreibt, wie eine Organisation Entscheidungen über KI trifft und kontrolliert: Ownership, Change-Approvals, geltende Regeln sowie Umgang mit Risiken und Incidents. Es macht Responsible AI operativ.
Warum es wichtig ist
- Klare Ownership verhindert Schatten-Deployments.
- Wiederholbare Approvals reduzieren Compliance- und Betriebsrisiken.
- Auditability macht nachvollziehbar, was wann und warum passiert ist.
Wie es funktioniert
Policies -> Rollen (RACI) -> Kontrollen -> Dokumentation -> Monitoring -> Incident Response
Typische Bausteine: KI-Inventar, Acceptable-Use-Regeln, Vendor Due Diligence, Change Management und verstärkte Reviews für High-Impact Use Cases.
Praktisches Beispiel
Eine Steuerkanzlei führt ein Register aller KI-Tools im Mandatskontext, definiert verpflichtende menschliche Reviews und verlangt dokumentierte Tests vor jedem Model-Update.
Häufige Fragen
Q: Was ist das Minimum für Governance?
A: Inventar, Ownership, dokumentierter Zweck, Approval-Prozess, Monitoring und Incident-Playbook.
Q: Bremst Governance?
A: Nur wenn sie bürokratisch ist. Gute Governance ist risikobasiert: je höher das Risiko, desto stärker die Kontrollen.
Verwandte Begriffe
- Responsible AI — Prinzipien in Prozesse
- AI Risk Management — Risiken und Kontrollen
- Model Accountability — Ownership und Nachvollziehbarkeit
- Data Ethics — verantwortlicher Umgang mit Daten
- Algorithmic Transparency — Disclosure und Grenzen
- EU AI Act — Compliance-Pflichten
Referenzen
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).