Skip to main content
Confiance & transparence

Pourquoi la transparence compte plus que la précision en IA juridique

L'industrie de l'IA est obsédée par la précision. Pour les fiscalistes, la vérifiabilité est la mesure qui vous protège réellement.

Par Auryth Team

Une IA précise à 95% qui ne dit jamais « je ne suis pas sûr » est plus dangereuse qu’une IA précise à 90% qui montre toujours ses sources.

Cela semble contre-intuitif. L’industrie de l’IA nous a entraînés pendant des années à poser une seule question : quelle est la précision de votre outil ? Plus le chiffre est élevé, meilleur est l’outil, fin de la discussion. Mais si vous êtes un conseiller fiscal portant la responsabilité professionnelle de chaque avis que vous donnez, la précision sans transparence est un piège que vous ne voyez que lorsqu’il est trop tard.

La mauvaise mesure

La précision est une propriété du système. La vérifiabilité est une propriété du résultat. Ce n’est pas la même chose.

Quand un outil d’IA vous indique que le taux de TOB sur les fonds de capitalisation est de 1,32%, la précision signifie que la réponse est correcte. La vérifiabilité signifie que vous pouvez voir que la réponse est rattachée à une disposition légale spécifique, consulter la source vous-même et confirmer qu’elle dit ce que l’outil prétend.

Une réponse précise que vous ne pouvez pas vérifier est un avis d’une autorité que vous ne pouvez pas questionner. Une réponse vérifiable — même occasionnellement erronée — est un point de départ pour le jugement professionnel. Vous pouvez repérer l’erreur. Vous pouvez évaluer le raisonnement. Vous pouvez défendre votre décision.

L’industrie de l’IA ne mesure pas cela. Les fournisseurs publient des benchmarks de précision, pas des scores de vérifiabilité. Parce que la précision flatte et la vérifiabilité exige.

Pourquoi l’IA paraît plus certaine qu’elle ne devrait

L’IA moderne présente un défaut de conception qui rend les métriques de précision particulièrement trompeuses : elle est entraînée à paraître confiante.

Les grands modèles de langage subissent un processus appelé Reinforcement Learning from Human Feedback (RLHF), où des évaluateurs humains récompensent les réponses confiantes et bien structurées et pénalisent les nuances. Le résultat : les systèmes d’IA sont architecturalement biaisés vers la certitude — même lorsque les preuves sous-jacentes sont minces ou inexistantes.

Des chercheurs de Stanford ont découvert que même les outils RAG juridiques premium hallucinent sur 17 à 33% des requêtes. Les LLM généralistes font pire : 58 à 88% de taux d’erreur sur les questions juridiques. Mais le danger n’est pas le taux d’erreur en soi — c’est que les erreurs ne ressemblent pas aux réponses correctes. Une citation fabriquée se lit exactement comme une vraie. Un numéro d’article erroné est énoncé avec la même assurance que le bon.

Sans transparence des sources, vous ne pouvez pas distinguer les 67% corrects des 33% qui ne le sont pas.

La taxe de fausse certitude : chaque point de pourcentage de précision IA non vérifiable est une responsabilité ingérable

À quoi ressemble réellement la transparence

La transparence en IA juridique n’est pas une case à cocher marketing. C’est un ensemble de décisions d’ingénierie spécifiques qui changent la manière dont vous pouvez utiliser l’outil professionnellement :

L'arbitrage précision-vérifiabilité : où se situent les différentes approches d'IA

CapacitéIA opaqueIA transparente
Citations de sources« Basé sur le droit fiscal belge »« Art. 19bis CIR 92, tel que modifié le 25 décembre 2017 » avec source consultable
Signal de confianceChaque réponse avec une certitude égaleScore de confiance par affirmation basé sur la couverture et la concordance des sources
Preuves mincesRépond quand même, pleine confianceSignale explicitement : « Aucune décision spécifique trouvée sur ce point »
Sources contradictoiresEn choisit une, la présente comme définitiveMontre les deux côtés classés par autorité juridique
Piste d’auditHistorique de chatJournal structuré : requête, sources récupérées, sources rejetées, raisonnement de confiance
IncertitudeJamais expriméeExplicitement quantifiée — une confiance faible déclenche un avertissement

La différence n’est pas cosmétique. C’est la différence entre un outil qui remplace votre jugement et un qui l’informe.

La pile de vérification : trois couches de confiance

Toute transparence n’est pas égale. Une citation de source que vous ne pouvez pas vérifier indépendamment est du théâtre, pas de la transparence. Une IA juridique de qualité professionnelle nécessite trois couches :

CoucheQuestion à laquelle elle répondCe qu’elle requiert
1. Transparence des citationsPuis-je voir la source ?Chaque affirmation liée à un document consultable
2. Validation des citationsLa source dit-elle réellement cela ?Vérification NLI indépendante comparant l’affirmation du modèle au texte source
3. Contexte d’autoritéQuelle est la force de cette source ?Classement hiérarchique — un arrêt de la Cour de cassation pèse plus qu’une circulaire

Retirez une couche et la prétention de transparence s’effondre. Montrer une citation sans validation est de la décoration citationnelle — cela paraît crédible sans rien prouver. Valider des citations sans contexte d’autorité traite un article de blog et un arrêt de la Cour suprême comme des preuves équivalentes.

La pile de vérification : la transparence des citations sans validation est de la décoration. La validation sans contexte d’autorité est de la démocratie. Il vous faut les trois.

Pourquoi cela compte pour la responsabilité professionnelle belge

Les conseillers fiscaux et comptables belges — qu’ils soient inscrits à l’ITAA ou qu’ils exercent indépendamment — portent l’entière responsabilité professionnelle des conseils qu’ils donnent à leurs clients. Aucun outil d’IA ne change cette obligation fondamentale. Utiliser un outil ayant produit un résultat erroné n’est pas une défense ; se fier à un outil non vérifiable sans vérification indépendante pourrait constituer un manque de diligence.

Le règlement européen sur l’IA (AI Act), avec des exigences de transparence et de supervision humaine entrant en vigueur progressivement en 2025–2026, ajoute une dimension réglementaire. Pour les professionnels utilisant l’IA dans le travail de conseil, l’implication pratique est claire : les outils que vous utilisez doivent soutenir votre capacité à vérifier et superviser leurs résultats. Un système opaque complique la conformité.

Une enquête récente de Thomson Reuters a révélé que 59% des juristes d’entreprise ne savent même pas si leurs conseils externes utilisent l’IA générative. Cette asymétrie d’information — des conseils assistés par l’IA délivrés sans divulgation — est précisément le type d’opacité que la tendance réglementaire vise à éliminer.

La question pratique pour tout fiscaliste évaluant un outil de recherche IA n’est pas « quelle est sa précision ? » C’est : puis-je vérifier ses résultats assez rapidement pour que l’outil me fasse réellement gagner du temps ?

Le contre-argument : la précision n’a-t-elle plus d’importance ?

Bien sûr que si. Personne ne veut d’un outil transparent qui se trompe la moitié du temps. Mais le débat n’oppose pas précision et transparence — il s’agit de reconnaître que la transparence est ce qui rend la précision exploitable.

Un outil précis à 95% sans chemin de vérification signifie que vous devez vérifier chaque réponse indépendamment pour trouver les 5% erronés — ce qui annule le gain de temps. Un outil précis à 90% qui montre ses sources, signale l’incertitude et classe par autorité signifie que vous pouvez rapidement confirmer les 90% et concentrer votre expertise sur les 10%.

L’ironie : les outils transparents paraissent moins impressionnants parce qu’ils montrent leur incertitude. Les outils opaques font meilleure impression en démo parce qu’ils projettent de l’assurance sur chaque réponse. Mais en pratique professionnelle, l’outil qui dit « j’ai trouvé une autorité limitée sur ce point — voici deux sources contradictoires, classées par poids » est infiniment plus utile que celui qui dit « la réponse est X » sans possibilité de vérification.

L’IA la plus dangereuse n’est pas celle qui se trompe parfois. C’est celle qui ne vous dit jamais quand c’est le cas.


Articles connexes


Comment Auryth TX applique ceci

Auryth TX est construit sur le principe de vérifiabilité — la conviction qu’un outil transparent est plus sûr qu’un outil opaque, indépendamment des benchmarks de précision.

Chaque réponse inclut des citations de sources par affirmation, liées à des documents consultables dans le corpus juridique belge. Chaque citation est validée indépendamment : une couche de Natural Language Inference vérifie que chaque source dit réellement ce que le modèle lui attribue. Chaque source porte un niveau d’autorité — des dispositions constitutionnelles en passant par la législation, la jurisprudence, les circulaires et la doctrine — pour que vous connaissiez le poids des preuves, pas seulement leur existence.

Quand les preuves sont minces, le score de confiance baisse et vous explique pourquoi. Quand les sources se contredisent, les deux côtés sont montrés avec leur classement d’autorité. Quand le système cherche et ne trouve rien de pertinent, il vous le dit — parce que savoir qu’aucune autorité n’existe sur un point spécifique est de l’intelligence professionnelle, pas une défaillance système.

Nous publions nos métriques de précision. Nous montrons nos sources. Nous signalons notre incertitude. Non pas parce que cela nous fait paraître mieux — ce n’est pas le cas. Mais parce que la confiance sans preuve est du marketing, et nous construisons un outil de recherche.

Découvrez notre approche de la transparence — inscrivez-vous sur la liste d’attente →


Sources : 1. Magesh, V. et al. (2025). « Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools. » Journal of Empirical Legal Studies. 2. Thomson Reuters Institute (2024). « ChatGPT & Generative AI within Law Firms. » 3. Parlement européen (2024). « Règlement (UE) 2024/1689 — Le règlement européen sur l’IA. »