Definition
AI-Risikomanagement ist ein strukturierter Ansatz, um zu verstehen, wie ein KI-System versagen kann, wen es schädigen kann und welche Kontrollen das Risiko reduzieren. Es ist kontinuierlich: Risiken ändern sich mit Daten, Modellen, Nutzung und Regulierung.
Warum es wichtig ist
- High-Stakes-Domänen (Recht, Steuern) brauchen vorhersagbares, verantwortbares Verhalten.
- Regulierung erwartet zunehmend dokumentierte Kontrollen.
- Incidents sind teuer: Reputationsschäden übersteigen oft technische Kosten.
Wie es funktioniert
Identifizieren -> bewerten -> mindern -> überwachen -> reagieren -> verbessern
Typische Risiken: falsche Outputs, Bias, Datenabfluss, Missbrauch, Overreliance und unklare Accountability.
Praktisches Beispiel
Für ein Recherche-Tool trackt man Risiken wie erfundene Zitate, veraltetes Recht und Vertraulichkeit. Kontrollen: Quellenangaben, Freshness-Checks, Zugriffskontrolle und verpflichtende menschliche Reviews für mandantenrelevante Kommunikation.
Häufige Fragen
Q: Nur für “Hochrisiko”-Systeme?
A: Nein. Controls skalieren mit Impact. Auch einfache Tools profitieren von Monitoring und Dokumentation.
Q: Was ist die häufigste Ursache in der Praxis?
A: Nicht das Modell, sondern der Prozess: unklarer Zweck, schwaches Oversight und kein Monitoring.
Verwandte Begriffe
- Responsible AI — breitere Praxis
- AI-Governance-Framework — Rollen und Kontrollen
- EU AI Act — risikobasierte Pflichten
- Hochrisiko-KI-System — Compliance-Trigger
- Human Oversight — Intervention und Review
- Model Accountability — Ownership und Traceability
- Data Ethics — Datendisziplin
- Bias Mitigation — unfairness reduzieren
Referenzen
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).