Définition
La gestion des risques IA est une approche structurée pour comprendre comment un système peut échouer, qui peut être affecté, et quels contrôles réduisent ces risques. C’est un processus continu: les risques évoluent avec les données, les modèles, les usages et la réglementation.
Pourquoi c’est important
- Domaines à enjeux (droit, fiscalité) exigent des comportements défendables.
- Réglementation: de plus en plus de cadres demandent des contrôles documentés.
- Incidents: le coût réputationnel dépasse souvent le coût technique.
Comment ça fonctionne
Identifier -> évaluer -> atténuer -> surveiller -> répondre -> améliorer
Risques typiques: erreurs, biais, fuite de données, mésusage, surconfiance et accountability floue.
Exemple pratique
Pour un outil de recherche juridique, on suit les risques comme citations inventées, droit obsolète et confidentialité. Contrôles: sources, vérifications de fraîcheur, contrôle d’accès et revue humaine avant toute communication client.
Questions fréquentes
Q: Est-ce réservé aux systèmes “à haut risque”?
R: Non. Les contrôles se calibrent sur l’impact. Même des outils simples gagnent à être monitorés.
Q: Quelle est la cause la plus fréquente d’échec?
R: Le process, pas le modèle: usage prévu flou, oversight faible et absence de monitoring.
Termes associés
- IA responsable — pratique globale
- Cadre de gouvernance IA — rôles et contrôles
- EU AI Act — obligations basées sur le risque
- Système d’IA à haut risque — seuil de conformité
- Supervision humaine — intervention et revue
- Responsabilité du modèle — traçabilité
- Éthique des données — discipline des données
- Atténuation des biais — réduire l’injustice
Références
NIST (2023), AI Risk Management Framework (AI RMF 1.0).
References
NIST (2023), AI Risk Management Framework (AI RMF 1.0).