Definition
Ein Hochrisiko-KI-System ist ein System, das nach EU AI Act in eine Hochrisiko-Kategorie fällt, typischerweise weil der beabsichtigte Einsatz erhebliche Auswirkungen auf Rechte, Sicherheit oder Zugang zu wesentlichen Leistungen haben kann.
Warum es wichtig ist
- Strengere Pflichten: Hochrisiko-Klassifizierung löst zusätzliche Anforderungen aus.
- Operative Controls: Risikomanagement, Dokumentation und Aufsicht werden zentral.
- Durchsetzung: Fokus von Audits und Sanktionen liegt oft auf High-Impact Uses.
Wie es funktioniert
Zweck definieren -> Kategorien prüfen -> Controls umsetzen -> dokumentieren -> Konformität
Die konkreten Pflichten hängen von Rolle (Provider vs Deployer) und Kategorie ab.
Praktisches Beispiel
Ein KI-System, das Entscheidungen in einem regulierten Prozess unterstützt, wird als potenziell hochriskant behandelt. Das Unternehmen implementiert menschliche Aufsicht, Logging und Dokumentation vor Produktiveinsatz.
Häufige Fragen
Q: Bedeutet Hochrisiko, dass das Modell unsicher ist?
A: Nicht zwingend. Es ist eine rechtliche Klassifizierung nach Use Case und Impact.
Q: Kann ein General-Purpose-Modell hochriskant werden?
A: Je nach Integration und Einsatzkontext. Der beabsichtigte Zweck ist entscheidend.
Verwandte Begriffe
- EU AI Act — Klassifizierung und Pflichten
- AI-Konformitätsbewertung — Konformitätsprozess
- AI-Dokumentationsanforderungen — erforderliche Nachweise
- Menschliche Aufsicht — Kontrolle in der Praxis
- AI Risk Management — strukturierte Controls
Referenzen
Verordnung (EU) 2024/1689 (EU AI Act).
References
Regulation (EU) 2024/1689 (EU AI Act).