Definition
Modellverantwortung heißt: man kann evidenzbasiert erklären, wer Owner ist, was das Modell tun darf, welche Daten es nutzt, wie es getestet wurde, wann es sich geändert hat und wer Änderungen freigegeben hat. Es ist primär Governance, nicht nur Technik.
Warum es wichtig ist
- Berufliche Verantwortung: Outputs müssen begründbar sein.
- Incident Response: Traceability ermöglicht schnelle Root-Cause-Analyse.
- Regulatorik: Dokumentation und Nachweise sind wiederkehrende Pflichten.
Wie es funktioniert
Owner + Zweck + Versioning + Tests + Approvals + Logs -> Accountability
Typische Artefakte: Eintrag im Modellinventar, Evaluationsresultate, Release Notes und Audit Trail.
Praktisches Beispiel
Wenn ein Update Retrieval- oder Ranking-Verhalten ändert, wird die Änderung geloggt, gegen Tests validiert und von einem benannten Owner freigegeben.
Häufige Fragen
Q: Ist Accountability dasselbe wie Haftung?
A: Nein. Accountability ist Governance und Nachweisbarkeit. Haftung ist ein rechtliches Ergebnis.
Q: Braucht Accountability volle Transparenz?
A: Nicht zwingend. Man kann accountable sein mit begrenzten Disclosures, interner Dokumentation und klaren Kontrollen.
Verwandte Begriffe
- Responsible AI — breitere Praxis
- AI-Governance-Framework — Rollen und Freigaben
- AI Documentation Requirements — Nachweise und Records
- Algorithmic Transparency — Erklärbarkeit und Disclosure
- Human Oversight — sinnvolle Kontrolle
Referenzen
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).