Définition
L’EU AI Act est un règlement de l’UE qui encadre les systèmes d’IA via une approche fondée sur le risque. Il définit des pratiques interdites, impose des obligations renforcées pour certains usages (notamment les systèmes à haut risque) et prévoit des exigences de transparence pour certaines interactions.
Pourquoi c’est important
- Conformité: exigences concrètes sur conception et usage de l’IA.
- Contrats et achats: demande de preuves (docs, contrôles).
- Impact opérationnel: gouvernance, supervision et monitoring peuvent devenir obligatoires.
Comment ça fonctionne
Définir le rôle + classifier le risque -> appliquer exigences -> documenter -> surveiller
Étapes typiques: définir l’usage prévu, vérifier la catégorie réglementée, mettre en place des contrôles de risque et maintenir documentation et logs.
Exemple pratique
Un outil IA dans un flux réglementé est évalué pour déterminer s’il est à haut risque. Si oui, le fournisseur prépare la documentation et la conformité; le déployeur assure supervision humaine et usage correct.
Questions fréquentes
Q: Le règlement s’applique-t-il à tous les outils IA?
R: Non. Les obligations dépendent du type de système, de l’usage prévu, du rôle et de la classification de risque.
Q: Est-ce uniquement un sujet “fournisseur”?
R: Pas toujours. Les déployeurs peuvent aussi avoir des obligations, surtout pour les systèmes à haut risque.
Termes associés
- Système d’IA à haut risque — obligations renforcées
- Évaluation de conformité IA — procédure exigée
- Exigences de documentation IA — preuves et informations
- Supervision humaine — contrôle humain
- Transparence algorithmique — disclosures et limites
- Gestion des risques IA — contrôles en pratique
Références
Règlement (UE) 2024/1689 (EU AI Act).
References
Regulation (EU) 2024/1689 (EU AI Act).