Skip to main content

L'AI Act européen et l'IA juridique : ce que les professionnels fiscaux belges doivent réellement savoir

L'AI Act est entré en vigueur le 1er août 2024. Certaines dispositions sont déjà actives. La plupart des articles confondent les obligations des fournisseurs avec celles des déployeurs — voici la distinction qui compte pour votre pratique.

Par Auryth Team

L’AI Act européen est déjà en vigueur. Pas dans le futur — depuis le 1er août 2024. Les pratiques d’IA interdites sont bannies depuis février 2025. Les obligations de littératie en IA s’appliquent dès maintenant. Et en août 2026 — dans six mois — l’application des obligations pour les systèmes à haut risque commence, avec des sanctions pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial.

Si vous êtes un professionnel fiscal belge utilisant des outils d’IA dans votre pratique, chaque article que vous avez lu sur ce règlement vous a probablement effrayé plus qu’il ne le devrait. Voici pourquoi : presque tout ce qui a été écrit sur l’AI Act confond ce que les fournisseurs doivent faire avec ce que les déployeurs doivent faire. La différence n’est pas académique. C’est la différence entre 330 000 € de coûts de conformité et essentiellement zéro.

La distinction qui change tout : fournisseur vs. déployeur

L’AI Act crée deux rôles fondamentalement différents avec des obligations fondamentalement différentes.

Les fournisseurs construisent des systèmes d’IA. OpenAI, Anthropic, Google, Auryth — quiconque développe, entraîne ou met un système d’IA sur le marché. Les fournisseurs de systèmes d’IA à haut risque doivent effectuer des évaluations de conformité, mettre en œuvre des systèmes de gestion de la qualité, maintenir une documentation technique extensive, enregistrer leurs systèmes dans la base de données européenne, et garantir l’exactitude, la robustesse et la cybersécurité.

Les déployeurs utilisent des systèmes d’IA dans un contexte professionnel. C’est vous. Cabinets d’avocats, cabinets comptables, cabinets de conseil fiscal, départements fiscaux d’entreprises — quiconque utilise un outil d’IA dans le cadre de son travail professionnel.

Vos obligations en tant que déployeur sont plus légères, plus pratiques et nettement moins coûteuses :

ObligationCe que cela signifie en pratique
Littératie en IA (Article 4)Assurez-vous que votre personnel comprend les bases du fonctionnement des outils d’IA qu’il utilise, leurs limites et leurs risques. Une formation interne suffit — aucune certification n’est requise
Surveillance humaine (Article 26)Un professionnel qualifié examine les résultats de l’IA avant qu’ils n’atteignent les clients. Si vous le faites déjà — et vous devriez le faire — vous êtes déjà conforme
Conservation des journauxConservez les journaux générés par le système pendant au moins six mois
Pertinence des données d’entréeUtilisez l’outil comme prévu, avec des données d’entrée appropriées
Suivre les instructions d’utilisationLisez et suivez la documentation du fournisseur

C’est tout. Pas d’évaluation de conformité. Pas de système de gestion de la qualité. Pas de coût de mise en place de 193 000 € à 330 000 €. La charge de conformité pour les déployeurs est la formation, la surveillance et la tenue de registres — des activités que toute pratique professionnelle compétente devrait déjà effectuer.

Calendrier de l'AI Act : application progressive de 2024 à 2027 avec obligations fournisseur vs. utilisateur

Ce qui est déjà en vigueur

L’application de l’AI Act suit un calendrier progressif. Certaines dispositions sont déjà actives :

Depuis le 2 février 2025 :

Depuis le 2 août 2025 :

À venir le 2 août 2026 :

À venir le 2 février 2026 :

La question du haut risque : l’IA juridique est-elle qualifiée ?

C’est là que la discussion devient véritablement complexe — et où la plupart des commentaires simplifient à l’excès.

L’Annexe III de l’AI Act énumère les catégories de systèmes d’IA considérés comme à haut risque. Le point 8 couvre « l’administration de la justice et les processus démocratiques » et inclut spécifiquement les systèmes d’IA « destinés à aider une autorité judiciaire à rechercher et interpréter les faits et le droit et à appliquer le droit à un ensemble concret de faits. »

Lisez attentivement. Le texte dit autorité judiciaire — tribunaux, juges, cours. Pas les avocats. Pas les conseillers fiscaux. Pas les comptables.

Un outil d’IA de recherche fiscale utilisé par un conseiller professionnel pour rechercher des dispositions et préparer des conseils n’assiste pas une autorité judiciaire. Il assiste un professionnel dans son travail préparatoire. Cette distinction compte juridiquement, et c’est une distinction que les futures lignes directrices de classification de la Commission européenne (février 2026) devraient clarifier.

De plus, l’Article 6(3) prévoit une voie d’exemption explicite. Un système d’IA énuméré dans l’Annexe III n’est pas considéré comme à haut risque s’il :

Un outil de recherche qui récupère et organise des dispositions juridiques pour qu’un professionnel les interprète et les applique correspond à cette description. Le jugement du professionnel — pas le résultat de l’IA — détermine le conseil. L’IA effectue un travail préparatoire ; l’humain prend la décision.

Une exception critique : les exemptions de l’Article 6(3) ne s’appliquent jamais si le système d’IA effectue un profilage de personnes physiques. Si un outil d’IA fiscale personnalise des recommandations basées sur les caractéristiques individuelles du client, il pourrait tomber dans la classification à haut risque indépendamment de la voie d’exemption. C’est la contrainte de conception la plus importante pour les fournisseurs d’IA juridique.

Ce que cela signifie spécifiquement pour la pratique belge

La mise en œuvre belge de l’AI Act reflète sa structure fédérale :

De manière cruciale, l’AI Act est un règlement d’harmonisation maximale. La Belgique ne peut pas introduire ses propres règles supplémentaires sur l’IA. Le cadre est uniforme dans toute l’UE — ce qui signifie que la conformité en Belgique équivaut à la conformité partout.

La position du barreau belge

L’OVB (ordre des barreaux flamands) et la NOvA (ordre des avocats néerlandais) ont publié des lignes directrices conjointes sur l’IA via alice.law qui adoptent une position permissive mais prudente :

Le CCBE (Conseil des barreaux européens) a renforcé cela avec son guide d’octobre 2025 sur l’utilisation de l’IA générative par les avocats, établissant un cadre paneuropéen qui met l’accent sur la responsabilité professionnelle plutôt que sur l’interdiction.

La position des comptables belges

Le baromètre ITAA 2025 révèle une profession qui s’oriente vers l’IA plutôt que de s’en éloigner :

Le président de l’ITAA, Bart Van Coile, a déclaré que les membres « ressentent la pression de réglementations de plus en plus complexes mais restent l’ancre de confiance » pour leurs clients. Ce cadrage — l’IA comme un outil qui renforce le rôle de conseiller de confiance, et non comme un outil qui le menace — s’aligne précisément avec la philosophie réglementaire de l’AI Act.

L’obligation de littératie en IA : ce qu’elle exige réellement

L’Article 4 est la disposition que la plupart des professionnels belges négligent, malgré son entrée en vigueur. Il exige que les fournisseurs et les déployeurs garantissent que le personnel dispose d’un « niveau suffisant de littératie en IA » en tenant compte de ses « connaissances techniques, expérience, éducation et formation » ainsi que du « contexte dans lequel les systèmes d’IA doivent être utilisés. »

En pratique, cela signifie :

  1. Votre personnel devrait comprendre comment fonctionnent les outils d’IA qu’il utilise au niveau conceptuel — pas l’architecture technique, mais l’approche générale (basée sur la récupération vs. générative, ce que signifie « notation de confiance », pourquoi les sources comptent)
  2. Votre personnel devrait comprendre les limites de l’outil — ce qu’il ne peut pas faire, où il fait des erreurs, quand vérifier de manière indépendante
  3. Votre personnel devrait comprendre le cadre de responsabilité professionnelle — l’IA produit un brouillon, le professionnel possède le conseil
  4. Documentation — les dossiers de formation interne suffisent. Aucune certification formelle n’est requise

Aucune amende autonome n’existe pour le non-respect de l’Article 4. Mais il fonctionne comme un « facteur aggravant majeur » dans toute enquête réglementaire. Si un problème survient et que l’enquête révèle l’absence de formation à la littératie en IA, toute autre sanction peut être augmentée.

L’application nationale de la littératie en IA commence en août 2026 via les autorités de surveillance du marché — en Belgique, cela signifie le BIPT.

L’intersection avec le RGPD

Pour les professionnels fiscaux belges, l’AI Act ne fonctionne pas de manière isolée. Tout outil d’IA traitant des données personnelles — noms de clients, informations financières, positions fiscales — doit se conformer simultanément à l’AI Act et au RGPD.

Points d’interaction clés :

Pour la pratique fiscale professionnelle : gardez les données personnelles hors des invites lorsque c’est possible, pseudonymisez lorsque ce n’est pas le cas, et assurez-vous que votre fournisseur d’IA dispose d’une conformité RGPD documentée pour son traitement des données. Ce sont des obligations de déployeur qui ne nécessitent aucune expertise juridique pour être mises en œuvre — juste de la sensibilisation et de la discipline.

Le cadre de sanctions

Les chiffres sont suffisamment importants pour mériter l’attention :

ViolationSanction maximale
Pratiques d’IA interdites35 millions d’euros ou 7 % du chiffre d’affaires mondial (selon le montant le plus élevé)
Obligations des systèmes à haut risque15 millions d’euros ou 3 % du chiffre d’affaires mondial
Informations trompeuses aux autorités7,5 millions d’euros ou 1 % du chiffre d’affaires mondial

Pour les PME, le montant le plus faible s’applique. Pour les grandes organisations, le montant le plus élevé. Ce sont des sanctions maximales — l’application réelle sera probablement proportionnée et progressive, similaire au bilan du RGPD.

Le risque pratique pour les déployeurs (pratiques professionnelles utilisant des outils d’IA) est minime pour la simple raison que les obligations des déployeurs sont minimales. Formez votre personnel, maintenez la surveillance, conservez les journaux, suivez les instructions. Si vous faites ces quatre choses, le cadre de sanctions est effectivement sans pertinence pour votre pratique.

La vraie question de conformité

L’aperçu le plus important de l’AI Act n’est pas ce qu’il interdit. C’est ce qu’il légitime.

Lorsqu’un règlement établit des critères de conformité explicites pour les outils d’IA dans les contextes professionnels, il crée simultanément deux catégories : les outils qui répondent aux critères et ceux qui n’y répondent pas. Les chatbots à usage général utilisés pour la recherche fiscale — sans transparence des sources, sans pistes d’audit, sans précision documentée, sans conception de surveillance humaine — auront de plus en plus de mal à justifier leur utilisation dans la pratique professionnelle à mesure que le cadre réglementaire mûrit.

Les outils d’IA juridique spécialement conçus avec transparence, citation des sources, notation de confiance et architecture humain-dans-la-boucle ne sont pas seulement de meilleurs outils. Ce sont les outils conformes. L’AI Act n’interdit pas l’IA dans la pratique professionnelle — il interdit la mauvaise IA dans la pratique professionnelle.

L’OVB positionne déjà l’IA comme un outil de soutien légitime. L’ITAA voit déjà l’IA comme une opportunité. Le cadre réglementaire fournit désormais la structure de conformité qui transforme l’intérêt professionnel en pratique professionnelle.

Une liste de contrôle pratique de conformité pour les pratiques fiscales belges

Déjà requis (depuis février 2025) :

Requis d’ici août 2026 :

Bonne pratique continue :


Articles connexes


Comment Auryth TX applique cela

Auryth TX est conçu pour la conformité à l’AI Act par architecture, et non par réflexion après coup.

Chaque requête de recherche produit une réponse entièrement sourcée avec des citations au niveau des articles, une notation de confiance et une piste d’audit complète. La conception humain-dans-la-boucle signifie que le professionnel prend toujours la décision interprétative finale — l’outil récupère, organise et signale ; le professionnel juge, conseille et prend la responsabilité.

La transparence des sources n’est pas une fonctionnalité — c’est la fondation. Chaque disposition citée renvoie à sa source. Chaque score de confiance reflète la qualité de récupération et la profondeur de couverture. Chaque session de recherche génère une trace documentée adaptée aux dossiers professionnels.

Pour l’obligation de littératie en IA : l’interface d’Auryth est conçue pour enseigner pendant qu’elle fonctionne. Les indicateurs de confiance, la provenance des sources, les cartes de couverture de domaine et les drapeaux de version temporelle rendent le raisonnement de l’outil visible — transformant chaque session de recherche en formation implicite à la littératie.

Aucune donnée personnelle n’entre dans le système par conception. Les requêtes portent sur des dispositions juridiques, pas sur des clients. L’architecture élimine l’intersection avec le RGPD avant qu’elle ne se produise.

À 99 €/mois, une infrastructure de conformité qui répond aux exigences de l’AI Act pour les déployeurs coûte moins qu’une seule heure de risque de non-conformité.

Recherchez plus rapidement. Couvrez davantage. Conseillez mieux — en conformité.


Sources : 1. European Parliament and Council (2024). Regulation (EU) 2024/1689 (AI Act). Official Journal of the European Union. 2. OVB (2025). « AI-richtlijnen voor advocaten. » ovb.be. Voir aussi : Alice.law (2025). “AI guidelines for lawyers in Belgium and the Netherlands.” 3. CCBE (2025). “Guide on the use of generative AI by lawyers.” ccbe.eu. 4. ITAA (2026). “ITAA-Barometer 2025.” blogitaa.be. 5. European Commission (2025). “General-Purpose AI Code of Practice.” digital-strategy.ec.europa.eu. 6. Ooms, W. & Gils, T. (2025). “Implementing the AI Act in Belgium: Scope of Application and Authorities.” SSRN. 7. ICT Rechtswijzer (2025). “The AI Act — Belgian implementation.” ictrechtswijzer.be.