Termes clés du droit fiscal belge et de l'IA expliqués
Les mécanismes qui déterminent qui peut accéder à quelles données, systèmes ou actions.
L’endroit où les données sont physiquement stockées ou traitées, souvent encadré par la loi ou des politiques internes.
La détection de dérive réglementaire surveille les changements de lois et guidance qui peuvent rendre un système IA (retrieval, réponses, contrôles) obsolète.
L'EU AI Act est le règlement européen basé sur le risque pour l'IA, imposant des obligations aux fournisseurs et déployeurs selon le niveau de risque.
Les exigences de documentation IA sont les documents et enregistrements nécessaires pour justifier l'usage, la conception, les tests, les contrôles et les limites d'un système d'IA.
Les rôles, processus et politiques qui garantissent une gestion responsable et conforme des données.
La mesure dans laquelle les humains peuvent comprendre comment un modèle produit ses prédictions.
Un enregistrement infalsifiable des actions, décisions et événements système dans le temps.
Les règles qui définissent combien de temps différents types de données sont conservés et quand ils doivent être supprimés.
Une approche où la protection des données et la vie privée sont intégrées dès la conception des systèmes.
Informations sur l’origine des données ou contenus et la façon dont ils ont été produits.
Le retrieval sensible à la conformité applique des contraintes (accès, provenance, logs) pour récupérer et citer des sources de manière défendable.
Un modèle de contrôle d’accès où les droits sont attribués à des rôles plutôt qu’aux utilisateurs individuellement.
La supervision humaine signifie que des personnes peuvent comprendre, surveiller et intervenir sur un système d'IA, y compris l'arrêter ou le contourner.
Un système d'IA à haut risque est un système classé comme tel par l'EU AI Act selon son usage prévu, déclenchant des obligations renforcées.
La transparence algorithmique consiste à fournir des informations claires sur le fonctionnement d'un système d'IA, ses données, ses limites et ses modes d'échec.
L'évaluation de conformité IA est le processus visant à démontrer qu'un système d'IA respecte les exigences légales et techniques avant mise sur le marché ou mise en service.