Skip to main content
Business

AI-Risikomanagement

AI-Risikomanagement ist der Prozess, Risiken von KI-Systemen über den Lebenszyklus hinweg zu identifizieren, zu bewerten, zu mindern und zu überwachen.

Auch bekannt als: AI risk management, Model Risk Management, KI-Kontrollen

Definition

AI-Risikomanagement ist ein strukturierter Ansatz, um zu verstehen, wie ein KI-System versagen kann, wen es schädigen kann und welche Kontrollen das Risiko reduzieren. Es ist kontinuierlich: Risiken ändern sich mit Daten, Modellen, Nutzung und Regulierung.

Warum es wichtig ist

  • High-Stakes-Domänen (Recht, Steuern) brauchen vorhersagbares, verantwortbares Verhalten.
  • Regulierung erwartet zunehmend dokumentierte Kontrollen.
  • Incidents sind teuer: Reputationsschäden übersteigen oft technische Kosten.

Wie es funktioniert

Identifizieren -> bewerten -> mindern -> überwachen -> reagieren -> verbessern

Typische Risiken: falsche Outputs, Bias, Datenabfluss, Missbrauch, Overreliance und unklare Accountability.

Praktisches Beispiel

Für ein Recherche-Tool trackt man Risiken wie erfundene Zitate, veraltetes Recht und Vertraulichkeit. Kontrollen: Quellenangaben, Freshness-Checks, Zugriffskontrolle und verpflichtende menschliche Reviews für mandantenrelevante Kommunikation.

Häufige Fragen

Q: Nur für “Hochrisiko”-Systeme?

A: Nein. Controls skalieren mit Impact. Auch einfache Tools profitieren von Monitoring und Dokumentation.

Q: Was ist die häufigste Ursache in der Praxis?

A: Nicht das Modell, sondern der Prozess: unklarer Zweck, schwaches Oversight und kein Monitoring.

Verwandte Begriffe


Referenzen

NIST (2023), AI Risk Management Framework (AI RMF 1.0).

References

NIST (2023), AI Risk Management Framework (AI RMF 1.0).