Definition
Der EU AI Act ist eine EU-Verordnung, die KI-Systeme risikobasiert reguliert. Er definiert verbotene Praktiken, strengere Pflichten für bestimmte Anwendungen (insbesondere Hochrisiko-Systeme) und Transparenzanforderungen für bestimmte Interaktionen.
Warum es wichtig ist
- Compliance: konkrete Anforderungen an Design und Betrieb von KI.
- Verträge und Procurement: Nachweise (Dokumentation, Kontrollen) werden verlangt.
- Operativer Impact: Governance, Aufsicht und Monitoring werden für bestimmte Systeme verpflichtend.
Wie es funktioniert
Rolle bestimmen + Risiko klassifizieren -> Anforderungen umsetzen -> dokumentieren -> überwachen
Typische Schritte: Zweck definieren, prüfen ob regulierte Kategorie, Risikokontrollen implementieren und erforderliche Dokumentation/Logs pflegen.
Praktisches Beispiel
Ein KI-Tool in einem regulierten Workflow wird auf Hochrisiko-Einstufung geprüft. Bei Hochrisiko: Provider-Dokumentation und Konformitätsprozess; Deployer stellt menschliche Aufsicht und korrekte Nutzung sicher.
Häufige Fragen
Q: Gilt der EU AI Act für jedes KI-Tool?
A: Nein. Pflichten hängen von Systemtyp, Zweck, Rolle und Risikoklassifizierung ab.
Q: Ist das nur ein Provider-Thema?
A: Nicht immer. Deployer können ebenfalls Pflichten haben, insbesondere bei Hochrisiko-Systemen.
Verwandte Begriffe
- Hochrisiko-KI-System — wann strenge Pflichten gelten
- AI-Konformitätsbewertung — erforderlicher Prozess
- AI-Dokumentationsanforderungen — Nachweise
- Menschliche Aufsicht — sinnvolle Kontrolle
- Algorithmische Transparenz — Disclosure und Limits
- AI Risk Management — Risikokontrollen
Referenzen
Verordnung (EU) 2024/1689 (EU AI Act).
References
Regulation (EU) 2024/1689 (EU AI Act).