Definition
Bias-Minderung beinhaltet technische und prozessuale Maßnahmen, um unfaire oder schädliche Unterschiede durch KI zu reduzieren. Ansatzpunkte sind Daten, Training, Evaluation und Deployment.
Warum es wichtig ist
- Fairness und Schaden: Bias kann Gruppen oder Individuen benachteiligen.
- Vertrauen: wahrgenommene Unfairness zerstört Glaubwürdigkeit schnell.
- Compliance: in regulierten Kontexten werden Tests und Kontrollen oft erwartet.
Wie es funktioniert
Fairness-Ziel definieren -> messen -> mindern -> erneut messen -> in Produktion überwachen
Maßnahmen: bessere Datendeckung, Reweighting, Constraints, Post-Processing und menschliche Reviews bei sensiblen Fällen.
Praktisches Beispiel
Wenn ein System Anfragen priorisiert, testet man, ob bestimmte Gruppen systematisch benachteiligt werden, und passt Features, Schwellen und Review-Regeln an.
Häufige Fragen
Q: Ist Bias dasselbe wie Ungenauigkeit?
A: Nicht zwingend. Ein Modell kann im Durchschnitt gut sein und dennoch für bestimmte Gruppen schlechter performen.
Q: Kann man Bias komplett entfernen?
A: Meist nicht. Ziel ist, schädliche Disparitäten zu reduzieren, Tradeoffs zu dokumentieren und Outcomes zu monitoren.
Verwandte Begriffe
- Data Ethics — verantwortliche Data-Practices
- Algorithmische Transparenz — Limits und Tests offenlegen
- AI Risk Management — Bias als Risiko
- Modellverantwortung — Ownership von Entscheidungen
Referenzen
Barocas, Hardt & Narayanan (2019), Fairness and Machine Learning.
References
Barocas, Hardt & Narayanan (2019), Fairness and Machine Learning.