"Je ne fais pas confiance à l'IA pour les conseils fiscaux" — et vous avez raison. Voici pourquoi vous devriez quand même essayer.
Le scepticisme envers l'IA en fiscalité est rationnel. La plupart des outils le méritent. Mais rejeter toute la catégorie parce que ChatGPT a halluciné un taux fiscal, c'est comme refuser les calculatrices parce que les premières se bloquaient.
Par Auryth Team
Vous avez essayé ChatGPT pour une question fiscale belge. Il vous a donné une réponse assurée avec le mauvais taux, le mauvais article, ou une citation qui n’existe pas. Vous avez fermé l’onglet, dit à vos collègues que c’est inutile, et vous êtes retourné sur Fisconetplus.
C’était la bonne décision. Pour cet outil.
Mais quelque part entre “ChatGPT n’est pas fiable” et “l’IA ne peut pas faire du travail fiscal”, un saut logique s’est produit qui vous coûte maintenant plus que vous ne le réalisez.
La gueule de bois ChatGPT
Il y a un schéma qui se répète dans tous les cabinets fiscaux de Belgique en ce moment. Un associé ou un collaborateur senior teste ChatGPT sur une vraie question — peut-être le taux de TOB pour les fonds de capitalisation, peut-être les tranches de droits de succession pour Bruxelles. La réponse arrive confiante, articulée, et fausse d’une manière qui aurait causé des dommages réels si elle avait atteint un client.
Le professionnel tire la conclusion évidente : l’IA ne peut pas gérer le travail fiscal. Et à partir de cette seule expérience, toute une catégorie technologique est rejetée.
Les données confirment que c’est répandu. L’adoption de l’IA parmi les professionnels fiscaux et comptables a quadruplé de 9% à 41% entre 2024 et 2025, selon le Future Ready Accountant Report de Wolters Kluwer. Mais cela signifie que 59% n’utilisent toujours pas d’outils IA du tout — et les principaux obstacles ne sont pas le coût ou l’accès. Ce sont la confiance et les mauvaises expériences antérieures.
L’ironie est que les sceptiques sont ceux qui comprennent le mieux le problème. Ils savent que le travail fiscal exige une précision temporelle, une conscience juridictionnelle et une vérification des sources. Ils savent qu’un mauvais taux dans une déclaration fiscale n’est pas un inconvénient mineur — c’est un problème de responsabilité professionnelle. Leurs standards sont exactement justes. Leur conclusion se trouve juste être fausse.
Ce que vous avez réellement rejeté
Quand vous avez rejeté “l’IA pour la fiscalité”, vous rejetiez une architecture spécifique : un modèle de langage généraliste sans accès à la législation actuelle, sans concept des juridictions belges, et sans moyen de vérifier son propre résultat.
Ce n’est pas ce que fait l’IA juridique spécialisée.
La distinction compte de la même manière qu’elle comptait en 2004 quand John D. Lee et Katrina See ont publié leur recherche fondatrice sur la confiance dans l’automatisation. Ils ont identifié trois facteurs qui déterminent si les professionnels font confiance à un outil : la performance (fonctionne-t-il de manière fiable ?), le processus (puis-je comprendre comment il fonctionne ?), et l’objectif (a-t-il été conçu pour mon cas d’usage ?).
ChatGPT échoue sur les trois pour le travail fiscal. Il hallucine des sources, son raisonnement est opaque, et il a été construit pour discuter — pas pour naviguer dans l’Art. 344 §1 CIR 92 à travers trois couches d’exceptions.
Mais le cadre de Lee et See décrit également ce qui se passe après un dysfonctionnement : la confiance chute, et elle se rétablit — si le système démontre des performances fiables lors d’interactions ultérieures. Le problème avec la gueule de bois ChatGPT est qu’il n’y a pas d’interactions ultérieures. Les professionnels ont essayé un outil, tiré une conclusion au niveau de la catégorie, et arrêté d’expérimenter.
Le précédent de la calculatrice
Ce n’est pas la première fois qu’une profession rejette un outil qui deviendra finalement indispensable.
Dans les années 1970, l’Inland Revenue britannique a explicitement dit au personnel que “en aucun cas les calculatrices ne devaient être utilisées pour effectuer des calculs fiscaux”. Les comptables devaient faire les calculs à la main. Pendant la décennie, les nouveaux employés dans les cabinets d’expertise comptable recevaient un bureau, une chaise et une machine à additionner — les employeurs contribuant au maximum 50 $ pour une calculatrice si l’employé en voulait une.
Dans les années 1980, la technologie transformait la comptabilité, bien que comme l’a noté un historien, “il serait trompeur de dire qu’elle a été adoptée avec enthousiasme” — le niveau d’expertise technologique parmi les cabinets comptables aussi récemment qu’en 1989 “était dans un état épouvantable”.
Personne ne vérifie les calculs de la calculatrice maintenant. Pas parce que les calculatrices ont gagné une confiance aveugle, mais parce qu’elles ont gagné une confiance appropriée grâce à des performances constantes et vérifiables sur des tâches qui étaient clairement dans leur capacité.
La question pour l’IA en fiscalité n’est pas de savoir si vous devriez lui faire aveuglément confiance. Bien sûr que non. La question est de savoir si vous avez testé si le bon outil, appliqué aux bonnes tâches, produit des résultats vérifiables qui vous font gagner du temps.
Le spectre de confiance que vous ignorez
La recherche de Lee et See décrit trois positions sur un spectre de confiance :
- Sur-confiance : accepter les résultats de l’IA sans vérification. C’est ce qui se passe quand quelqu’un copie la réponse de ChatGPT dans une note au client sans vérifier les sources. Dangereux — et exactement ce que les sceptiques craignent.
- Sous-confiance : rejeter entièrement les outils IA sur la base d’une seule mauvaise expérience. C’est la gueule de bois ChatGPT. Sûr à court terme, coûteux à long terme.
- Confiance appropriée : utiliser l’IA pour ce pour quoi elle est construite, vérifier aux frontières, et maintenir le jugement professionnel sur les conclusions.
La plupart de la conversation sur l’IA dans les services professionnels est bloquée à débattre entre les deux premières positions. Les cabinets qui surperformeront sont ceux qui trouveront la troisième.

À quoi ressemble la confiance appropriée en pratique
La confiance appropriée ne consiste pas à croire l’IA. Il s’agit de vérifier les sources qu’elle vous montre.
Quand un outil de recherche fiscale spécialisé retourne une réponse, il vous montre quelles dispositions légales il a récupérées, quelle version de la loi il a appliquée, et de quelle juridiction il a tiré l’information. Vous n’avez pas à faire confiance à l’interprétation de l’IA — vous lisez les sources réelles, de la même manière que vous liriez les résultats d’une recherche Fisconetplus.
La différence est la portée et la vitesse. Une recherche manuelle Fisconetplus sur une conversion d’ETF pourrait faire ressortir les implications TOB et manquer l’angle Art. 19bis, le traitement du précompte mobilier, et les obligations de déclaration. Pas parce que vous êtes négligent, mais parce que la récupération inter-domaines nécessite de savoir quels domaines rechercher — et personne ne recherche dans cinq bases de données quand il pense avoir trouvé la réponse dans la première.
Les outils spécialisés avec taxonomie de domaine font cette traversée systématiquement. Ils signalent quels domaines ont été couverts et lesquels ne l’ont pas été. Vous faites toujours l’appel de jugement professionnel. Vous le faites juste avec une couverture plus large que celle que la recherche manuelle atteint typiquement.
Les mathématiques concurrentielles
C’est là que le scepticisme cesse d’être protecteur et commence à être coûteux.
Thomson Reuters rapporte que les organisations avec une adoption stratégique de l’IA sont 2x plus susceptibles de voir une croissance des revenus et 3,5x plus susceptibles de connaître des avantages opérationnels critiques. Parmi les cabinets fiscaux et comptables, 83% de ceux utilisant l’IA ont déclaré une augmentation des revenus en 2025, contre 72% l’année précédente.
Un cabinet utilisant des outils de préparation fiscale IA a rapporté 90% d’erreurs de conformité en moins d’une année sur l’autre et a préparé 55% de déclarations en plus par préparateur avec un personnel similaire.
Ce ne sont pas des projections hypothétiques. Ce sont des résultats mesurés de cabinets qui ont dépassé la gueule de bois ChatGPT et ont trouvé des outils construits pour leur travail réel.
L’écart concurrentiel n’est pas encore dramatique. C’est quelques heures par-ci, une disposition manquée par-là. Mais cela se compose. Les cabinets faisant de la recherche assistée par IA ne sont pas seulement plus rapides — ils trouvent des dispositions que la recherche manuelle manque systématiquement. Chaque question inter-domaines où l’IA fait ressortir trois domaines fiscaux additionnels pertinents est une question où le cabinet non-IA a fourni un conseil plus étroit sans le savoir.
Et 76% des diplômés en comptabilité disent qu’ils sont plus susceptibles de rejoindre des cabinets qui utilisent activement l’IA. Le pipeline de talents valorise déjà l’écart technologique.
Le chemin pragmatique
Vous n’avez pas à changer d’avis sur l’IA. Vous devez tester un outil sur vingt questions et vérifier vous-même les résultats.
Pas ChatGPT. Pas un assistant généraliste. Un outil construit pour la fiscalité belge, avec des citations de sources, un versionnage temporel, et un marquage juridictionnel.
Posez-lui les questions dont vous connaissez déjà les réponses. Vérifiez chaque source qu’il cite. Vérifiez chaque numéro d’article. Comptez combien de fois il a raison, combien de fois il a tort, et combien de fois il fait ressortir une disposition que vous n’aviez pas considérée.
S’il échoue à votre test, vous avez perdu une heure. S’il réussit, vous avez trouvé un accélérateur de recherche qui rend votre expertise plus approfondie, pas moins pertinente.
Les professionnels qui adoptent en premier ne remplacent pas leur jugement. Ils étendent leur portée. Et l’écart entre les cabinets qui recherchent dans cinq domaines fiscaux et les cabinets qui recherchent dans deux ne fera que croître à partir de maintenant.
Articles connexes
- 5 questions fiscales belges où l’IA générique est garantie d’échouer
- Pourquoi la transparence compte plus que la précision dans l’IA juridique
- Comment évaluer un outil d’IA juridique : 10 questions qui comptent vraiment
- Hallucinations IA : pourquoi ChatGPT fabrique des sources (et comment le repérer)
Comment Auryth TX répond au problème de confiance
Auryth TX a été construit par des professionnels fiscaux qui partagent chaque préoccupation dans cet article. Nous n’avons pas construit un chatbot et ajouté des données fiscales. Nous avons construit un outil de recherche et ajouté l’IA.
Chaque réponse montre les dispositions légales qu’il a récupérées, la version de la loi qu’il a appliquée, et la juridiction d’où il a tiré l’information. Le score de confiance vous indique quelle part du corpus pertinent a été couverte — pas seulement si le modèle se sent confiant. Quand le système n’est pas sûr, il le dit.
Vous n’avez pas à faire confiance à l’IA. Vous vérifiez les sources qu’elle vous montre — de la même manière que vous vérifiez n’importe quel outil de recherche. La différence est que celui-ci recherche dans cinq domaines fiscaux quand vous en rechercheriez normalement deux.
Les sceptiques avaient raison d’être sceptiques. Nous avons construit pour eux.
Testez-le sur vos questions les plus difficiles — rejoignez la liste d’attente →
Sources : 1. Wolters Kluwer, Future Ready Accountant Report (2025). Adoption de l’IA parmi les professionnels fiscaux 9% → 41%. 2. Lee, J.D. & See, K.A. (2004). « Trust in Automation: Designing for Appropriate Reliance. » Human Factors, 46(1), 50-80. 3. Thomson Reuters, Future of Professionals Report (2025). Adoption stratégique de l’IA et corrélation avec les revenus. 4. Bridgewater State University, « How Technology Has Changed the Field of Accounting » — données sur la résistance aux calculatrices dans les années 1970. 5. ITAA — Institut belge des conseillers fiscaux et des experts-comptables. 16 000+ membres, assurance responsabilité professionnelle obligatoire.