Définition
Un système d’IA à haut risque est un système qui entre dans une catégorie “haut risque” définie par l’EU AI Act, généralement parce que son usage peut affecter de manière significative des droits, la sécurité ou l’accès à des services essentiels.
Pourquoi c’est important
- Obligations renforcées: la classification déclenche des exigences plus strictes.
- Contrôles opérationnels: gestion des risques, documentation et supervision deviennent centrales.
- Contrôle et sanctions: l’attention se porte sur les usages à fort impact.
Comment ça fonctionne
Définir l'usage prévu -> vérifier les catégories -> mettre en place contrôles -> documenter -> conformité
Les obligations exactes dépendent du rôle (fournisseur vs déployeur) et de la catégorie.
Exemple pratique
Un système IA qui soutient des décisions dans un processus réglementé est traité comme potentiellement à haut risque. L’organisation met en place supervision humaine, logs et documentation avant usage en production.
Questions fréquentes
Q: Haut risque = modèle dangereux?
R: Pas forcément. C’est une qualification juridique liée à l’usage et à l’impact.
Q: Un modèle généraliste peut-il devenir haut risque?
R: Cela dépend de l’intégration et du contexte d’usage. L’usage prévu est déterminant.
Termes associés
- EU AI Act — classification et obligations
- Évaluation de conformité IA — procédure de conformité
- Exigences de documentation IA — preuves requises
- Supervision humaine — contrôle humain
- Gestion des risques IA — contrôles structurés
Références
Règlement (UE) 2024/1689 (EU AI Act).
References
Regulation (EU) 2024/1689 (EU AI Act).