Definitie
Uitlegbaarheid (of Explainable AI/XAI) verwijst naar technieken die AI-modelbeslissingen begrijpelijk maken voor mensen. Het beantwoordt “waarom maakte het model deze voorspelling?” in plaats van alleen “wat voorspelde het model?” Uitlegbaarheid bestaat op een spectrum: van inherent interpreteerbare modellen (lineaire regressie, beslisbomen) tot post-hoc verklaringen voor black-box modellen (SHAP, LIME, attentievisualisatie). Naarmate AI-systemen steeds belangrijkere beslissingen nemen (gezondheidszorg, financiën, juridisch), wordt uitlegbaarheid cruciaal voor vertrouwen, verantwoording, debugging en regelgevingscompliance (AI Act, AVG Artikel 22).
Waarom het belangrijk is
Uitlegbaarheid adresseert kritieke AI-implementatiebehoeften:
- Vertrouwen — gebruikers vertrouwen systemen die ze begrijpen
- Debugging — identificeren waarom modellen falen in specifieke gevallen
- Regelgevingscompliance — AI Act vereist uitleg voor hoog-risico AI
- Biasdetectie — onthullen of modellen beschermde attributen gebruiken
- Domeinvalidatie — experts verifiëren dat modelredenering klopt
- Juridische verdedigbaarheid — geautomatiseerde beslissingen uitleggen
Hoe het werkt
┌────────────────────────────────────────────────────────────┐
│ UITLEGBAARHEID │
├────────────────────────────────────────────────────────────┤
│ │
│ HET UITLEGBAARHEID SPECTRUM: │
│ ──────────────────────────── │
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ │ │
│ │ INTERPRETEERBAAR → BLACK-BOX │ │
│ │ (ingebouwd) (heeft XAI nodig)│ │
│ │ │ │
│ │ ┌─────────────┐ ┌─────────────┐ ┌─────────────┐ │ │
│ │ │ LINEAIRE │ │ RANDOM │ │ DIEP │ │ │
│ │ │ REGRESSIE │ │ FOREST │ │ NEURAAL │ │ │
│ │ │ │ │ │ │ NETWERK │ │ │
│ │ │ coëfficiënt │ │ feature │ │ │ │ │
│ │ │ = directe │ │ importance │ │ 🤷 ??? │ │ │
│ │ │ uitleg │ │ beschikbaar │ │ Heeft SHAP │ │ │
│ │ │ │ │ │ │ LIME nodig │ │ │
│ │ └─────────────┘ └─────────────┘ └─────────────┘ │ │
│ │ │ │
│ │ ◄─── Meer interpreteerbaar Minder interpr. ───► │ │
│ │ ◄─── Minder krachtig Krachtiger ───► │ │
│ │ │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
│ │
│ SOORTEN UITLEG: │
│ ─────────────── │
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ │ │
│ │ 1. GLOBALE UITLEG │ │
│ │ "Hoe werkt het model over het algemeen?" │ │
│ │ │ │
│ │ Feature Importance (totaal) │ │
│ │ Leeftijd: ████████████████ (45%) │ │
│ │ Inkomen: ███████████ (28%) │ │
│ │ Locatie: █████ (15%) │ │
│ │ Historie: ████ (12%) │ │
│ │ │ │
│ │ 2. LOKALE UITLEG │ │
│ │ "Waarom maakte het model DEZE voorspelling?" │ │
│ │ │ │
│ │ Voorspelling: AFGEWEZEN │ │
│ │ │ │
│ │ Bijdragende factoren voor DIT geval: │ │
│ │ Leeftijd < 25: ─────█████ (-0.34) │ │
│ │ Inkomen laag: ─────████ (-0.28) │ │
│ │ Goede historie: ████───── (+0.21) │ │
│ │ │ │
│ │ "Afgewezen voornamelijk door jonge leeftijd │ │
│ │ en laag inkomen ondanks goede historie" │ │
│ │ │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
│ │
│ POPULAIRE XAI TECHNIEKEN: │
│ ───────────────────────── │
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ │ │
│ │ SHAP (SHapley Additive exPlanations) │ │
│ │ • Speltheoretische aanpak │ │
│ │ • Kent bijdragewaarde toe aan elk kenmerk │ │
│ │ • Consistent: zelfde input = zelfde uitleg │ │
│ │ • Werkt op elk model (model-agnostisch) │ │
│ │ │ │
│ │ LIME (Local Interpretable Model-agnostic Exp) │ │
│ │ • Creëert lokale lineaire benadering │ │
│ │ • Verstoort input, observeert veranderingen │ │
│ │ • Fit simpel model rond voorspelling │ │
│ │ • Goed voor beeld/tekst uitleg │ │
│ │ │ │
│ │ ATTENTIE VISUALISATIE (voor transformers) │ │
│ │ Input: "De film was absoluut verschrikkelijk" │ │
│ │ Attentie: De film was absoluut verschrikkelijk │ │
│ │ ░ ░ ░ ▓▓ ████ │ │
│ │ Model focuste op "verschrikkelijk" en "absoluut" │ │
│ │ │ │
│ │ COUNTERFACTUAL UITLEG │ │
│ │ "Wat zou moeten veranderen voor andere uitkomst?" │ │
│ │ Huidig: Lening AFGEWEZEN │ │
│ │ Counterfactual: "Als inkomen €5000 hoger was, │ │
│ │ zou lening GOEDGEKEURD worden" │ │
│ │ │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
│ │
│ WETTELIJKE VEREISTEN: │
│ ───────────────────── │
│ │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ │ │
│ │ EU AI ACT (2024) │ │
│ │ ├─ Hoog-risico AI moet begrijpelijk zijn │ │
│ │ ├─ Gebruikers moeten outputs kunnen interpreteren │ │
│ │ └─ Documentatie van modelgedrag vereist │ │
│ │ │ │
│ │ AVG Artikel 22 │ │
│ │ ├─ Recht op uitleg voor geautomatiseerde besluiten│ │
│ │ └─ "Betekenisvolle info over logica betrokken" │ │
│ │ │ │
│ └─────────────────────────────────────────────────────┘ │
│ │
└────────────────────────────────────────────────────────────┘
Veelgestelde vragen
V: Wat is het verschil tussen uitlegbaarheid en interpreteerbaarheid?
A: Vaak door elkaar gebruikt. Technisch: interpreteerbaarheid = hoe begrijpelijk een model inherent is; uitlegbaarheid = methodes om elk modelgedrag uit te leggen. Een beslisboom is interpreteerbaar; een neuraal netwerk kan uitlegbaar worden gemaakt via SHAP.
V: Vertragen uitleg de inferentie?
A: Post-hoc uitleg (SHAP, LIME) voegen berekening toe. Je kunt uitleg offline berekenen voor analyse, of benaderingsmethodes gebruiken voor realtime.
V: Zijn attentie-gewichten betrouwbare uitleg?
A: Controversieel. Attentie toont waar het model “keek,” maar bewijst geen causaliteit. Onderzoek toont dat attentie gemanipuleerd kan worden zonder voorspellingen te veranderen.
Gerelateerde termen
- AI Act — EU-regelgeving die uitlegbaarheid vereist
- Black-box model — modellen die XAI-technieken nodig hebben
Referenties
Lundberg & Lee (2017), “A Unified Approach to Interpreting Model Predictions”, NeurIPS. [SHAP-methodologie]
Ribeiro et al. (2016), “Why Should I Trust You? Explaining Predictions of Any Classifier”, KDD. [LIME-methodologie]
Rudin (2019), “Stop Explaining Black Box ML Models for High Stakes Decisions”, Nature Machine Intelligence.
Europese Commissie (2024), “AI Act”, Official Journal.
References
Lundberg & Lee (2017), “A Unified Approach to Interpreting Model Predictions”, NeurIPS. [SHAP methodology]
Ribeiro et al. (2016), “Why Should I Trust You? Explaining the Predictions of Any Classifier”, KDD. [LIME methodology]
Rudin (2019), “Stop Explaining Black Box Machine Learning Models for High Stakes Decisions”, Nature Machine Intelligence. [Case for inherent interpretability]
European Commission (2024), “AI Act”, Official Journal. [Regulatory requirements for explainability]