Definitie
Modelverantwoordelijkheid betekent dat je met bewijs kunt uitleggen: wie eigenaar is, wat het model wel en niet mag doen, welke data het gebruikt, hoe het getest is, wanneer het wijzigde en wie de wijziging goedkeurde. Het is vooral governance, niet enkel techniek.
Waarom het belangrijk is
- Professionele verantwoordelijkheid: outputs moeten verdedigbaar zijn.
- Incident response: bij fouten wil je snel oorzaak en impact begrijpen.
- Regelgeving: traceerbaarheid en documentatie komen steeds terug.
Hoe het werkt
Eigenaar + beoogd gebruik + versiebeheer + testen + approvals + logs -> accountability
Typische artifacts: modelinventaris, evaluatieresultaten, release notes en audittrail.
Praktisch voorbeeld
Als een modelupdate de retrieval of ranking wijzigt, wordt de change gelogd, getest op een set queries en goedgekeurd door een expliciete eigenaar vóór deployment.
Veelgestelde vragen
Q: Is accountability hetzelfde als aansprakelijkheid?
A: Nee. Accountability gaat over governance en bewijs. Aansprakelijkheid is een juridisch gevolg dat afhangt van contract en recht.
Q: Vereist accountability volledige transparantie?
A: Niet altijd. Je kunt accountable zijn met gerichte disclosures, interne documentatie en duidelijke controls.
Gerelateerde termen
- Verantwoorde AI — het bredere kader
- AI governance framework — rollen en approvals
- AI-documentatievereisten — bewijs en records
- Algoritmische transparantie — uitlegbaarheid en disclosure
- Menselijk toezicht — betekenisvolle controle
Referenties
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).