Definitie
AI-risicobeheer is een gestructureerde aanpak om te begrijpen hoe een AI-systeem kan falen, wie schade kan lijden en welke controls dat risico verminderen. Het is continu: risico’s veranderen als data, modellen, gebruikers of regels veranderen.
Waarom het belangrijk is
- High-stakes domeinen (recht, fiscaliteit) vereisen voorspelbaar gedrag.
- Regulering verwacht steeds vaker gedocumenteerde controles.
- Incidenten zijn duur: reputatieschade weegt vaak zwaarder dan techniek.
Hoe het werkt
Identificeer -> beoordeel -> mitigeer -> monitor -> reageer -> verbeter
Typische risico’s: foutieve outputs, bias, datalekken, misbruik, overreliance en onduidelijke verantwoordelijkheid.
Praktisch voorbeeld
Voor een AI-onderzoekstool volg je risico’s zoals verzonnen citaties, verouderde wet en vertrouwelijkheid. Controls: broncitatie, freshness checks, toegangscontrole en verplichte menselijke review voor cliëntcommunicatie.
Veelgestelde vragen
Q: Is risicobeheer alleen voor “hoog-risico” systemen?
A: Nee. Controls schalen met impact. Ook laag-risico tools hebben baat bij basis monitoring en documentatie.
Q: Wat gaat in de praktijk het vaakst mis?
A: Niet het model, maar het proces: onduidelijk beoogd gebruik, zwak toezicht en geen monitoring.
Gerelateerde termen
- Verantwoorde AI — het bredere kader
- AI governance framework — rollen en controls
- EU AI Act — risicogebaseerde plichten
- Hoog-risico AI-systeem — compliance-triggers
- Menselijk toezicht — ingrijpen en review
- Modelaccountability — traceerbaarheid
- Data-ethiek — veilig datagebruik
- Bias-mitigatie — unfairness verminderen
Referenties
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).