Définition
La responsabilité du modèle signifie que l’on peut répondre, preuves à l’appui: qui est propriétaire, ce que le modèle est censé faire, quelles données il utilise, comment il a été testé, quand il a changé, et qui a approuvé ces changements. C’est surtout une propriété de gouvernance.
Pourquoi c’est important
- Responsabilité professionnelle: les résultats doivent être défendables.
- Gestion d’incident: traçabilité = analyse rapide de la cause racine.
- Préparation réglementaire: documentation et preuves reviennent partout.
Comment ça fonctionne
Owner + usage prévu + versioning + tests + approvals + logs -> accountability
Artifacts typiques: inventaire modèle, résultats d’évaluation, notes de version et audit trail.
Exemple pratique
Si une mise à jour modifie le comportement de retrieval ou de ranking, la modification est enregistrée, testée, puis approuvée par un owner nommé avant déploiement.
Questions fréquentes
Q: Accountability = responsabilité juridique?
R: Non. L’accountability concerne la gouvernance et les preuves. La responsabilité juridique dépend du droit et des contrats.
Q: Faut-il une transparence totale?
R: Pas forcément. On peut être accountable avec des disclosures ciblées, une documentation interne et des contrôles clairs.
Termes associés
- IA responsable — pratique globale
- Cadre de gouvernance IA — rôles et approbations
- Exigences de documentation IA — preuves et enregistrements
- Transparence algorithmique — explainability et disclosure
- Supervision humaine — contrôle humain
Références
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).