Skip to main content
Recht & Regulierung

Der EU AI Act und KI für Rechtsberatung: was belgische Steuerberater tatsächlich wissen müssen

Der AI Act ist seit dem 1. August 2024 in Kraft. Einige Bestimmungen gelten bereits. Die meisten Artikel verwechseln die Pflichten von Anbietern mit denen von Anwendern — hier ist die Unterscheidung, die für Ihre Praxis wichtig ist.

Von Auryth Team

Der EU AI Act ist bereits in Kraft. Nicht in der Zukunft — seit dem 1. August 2024. Verbotene KI-Praktiken sind seit Februar 2025 untersagt. Die Verpflichtungen zur KI-Kompetenz gelten jetzt bereits. Und im August 2026 — in sechs Monaten — beginnt die Durchsetzung der Verpflichtungen für Hochrisikosysteme, unterstützt durch Strafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes.

Wenn Sie ein belgischer Steuerberater sind, der KI-Tools in seiner Praxis einsetzt, hat Sie wahrscheinlich jeder Artikel über diese Verordnung mehr erschreckt, als er sollte. Hier ist der Grund: Fast alles, was über den AI Act geschrieben wird, verwechselt, was Anbieter tun müssen, mit dem, was Anwender tun müssen. Der Unterschied ist nicht akademisch. Es ist der Unterschied zwischen 330.000 Euro Compliance-Kosten und im Wesentlichen null.

Die entscheidende Unterscheidung: Anbieter vs. Anwender

Der AI Act schafft zwei grundlegend verschiedene Rollen mit grundlegend verschiedenen Verpflichtungen.

Anbieter entwickeln KI-Systeme. OpenAI, Anthropic, Google, Auryth — jeder, der ein KI-System entwickelt, trainiert oder auf den Markt bringt. Anbieter von Hochrisiko-KI-Systemen müssen Konformitätsbewertungen durchführen, Qualitätsmanagementsysteme implementieren, umfangreiche technische Dokumentation führen, ihre Systeme in der EU-Datenbank registrieren und Genauigkeit, Robustheit und Cybersicherheit gewährleisten.

Anwender nutzen KI-Systeme in einem beruflichen Kontext. Das sind Sie. Anwaltskanzleien, Steuerberatungskanzleien, Steuerabteilungen von Unternehmen — jeder, der ein KI-Tool als Teil seiner beruflichen Arbeit nutzt.

Ihre Verpflichtungen als Anwender sind leichter, praktischer und deutlich kostengünstiger:

VerpflichtungWas es in der Praxis bedeutet
KI-Kompetenz (Artikel 4)Stellen Sie sicher, dass Ihre Mitarbeiter die Grundlagen der von ihnen verwendeten KI-Tools verstehen, deren Grenzen und Risiken. Interne Schulungen genügen — keine Zertifizierung erforderlich
Menschliche Aufsicht (Artikel 26)Ein qualifizierter Fachmann überprüft den KI-Output, bevor er die Mandanten erreicht. Wenn Sie das bereits tun — und das sollten Sie — sind Sie bereits konform
ProtokollaufbewahrungBewahren Sie systemgenerierte Protokolle für mindestens sechs Monate auf
Relevanz der EingabedatenVerwenden Sie das Tool wie vorgesehen, mit angemessenen Eingabedaten
Gebrauchsanweisungen befolgenLesen und befolgen Sie die Dokumentation des Anbieters

Das ist alles. Keine Konformitätsbewertung. Kein Qualitätsmanagementsystem. Keine Einrichtungskosten von 193.000 bis 330.000 Euro. Die Compliance-Belastung für Anwender besteht aus Schulung, Aufsicht und Dokumentation — Aktivitäten, die jede kompetente berufliche Praxis bereits durchführen sollte.

EU AI Act-Zeitplan: phasenweise Durchsetzung von 2024 bis 2027 mit Pflichten Anbieter vs. Anwender

Was bereits in Kraft ist

Die Durchsetzung des AI Act folgt einem gestaffelten Zeitplan. Einige Bestimmungen sind bereits aktiv:

Seit dem 2. Februar 2025:

Seit dem 2. August 2025:

Ab dem 2. August 2026:

Ab dem 2. Februar 2026:

Die Hochrisikofrage: qualifiziert sich KI für Rechtsberatung?

Hier wird die Diskussion wirklich komplex — und hier vereinfacht die meiste Kommentierung zu stark.

Anhang III des AI Act listet Kategorien von KI-Systemen auf, die als Hochrisiko gelten. Punkt 8 umfasst die „Justizverwaltung und demokratische Prozesse” und schließt ausdrücklich KI-Systeme ein, die „einer Justizbehörde bei der Recherche und Interpretation von Fakten und Recht sowie bei der Anwendung des Rechts auf einen konkreten Sachverhalt helfen sollen.”

Lesen Sie das sorgfältig. Der Text sagt Justizbehörde — Gerichte, Richter, Tribunale. Nicht Anwälte. Nicht Steuerberater. Nicht Buchhalter.

Ein KI-Tool für Steuerrecherche, das von einem professionellen Berater zur Recherche von Bestimmungen und zur Vorbereitung von Beratung genutzt wird, unterstützt keine Justizbehörde. Es unterstützt einen Fachmann bei seiner vorbereitenden Arbeit. Diese Unterscheidung ist rechtlich relevant, und die kommenden Klassifizierungsrichtlinien der Europäischen Kommission (Februar 2026) werden sie voraussichtlich klären.

Darüber hinaus bietet Artikel 6(3) einen ausdrücklichen Ausnahmeweg. Ein in Anhang III aufgeführtes KI-System gilt nicht als Hochrisiko, wenn es:

Ein Recherche-Tool, das rechtliche Bestimmungen für einen Fachmann abruft und organisiert, damit dieser sie interpretiert und anwendet, passt auf diese Beschreibung. Das Urteil des Fachmanns — nicht der Output der KI — bestimmt die Beratung. Die KI führt vorbereitende Arbeit aus; der Mensch trifft die Entscheidung.

Eine kritische Ausnahme: Ausnahmen nach Artikel 6(3) gelten niemals, wenn das KI-System Profiling natürlicher Personen durchführt. Wenn ein KI-Tool für Steuerberatung Empfehlungen basierend auf individuellen Mandantenmerkmalen personalisiert, könnte es unabhängig vom Ausnahmeweg in die Hochrisikoklassifizierung fallen. Dies ist die wichtigste Designbeschränkung für Anbieter von KI für Rechtsberatung.

Was dies speziell für die belgische Praxis bedeutet

Belgiens Umsetzung des AI Act spiegelt seine föderale Struktur wider:

Entscheidend ist, dass der AI Act eine Maximalharmonisierungs-Verordnung ist. Belgien kann keine eigenen zusätzlichen KI-Regeln einführen. Der Rahmen ist einheitlich in der EU — was bedeutet, dass Compliance in Belgien Compliance überall bedeutet.

Die Position der belgischen Anwaltschaft

Der OVB (Flämischer Anwaltsverband) und die NOvA (Niederländischer Anwaltsverband) veröffentlichten gemeinsame KI-Richtlinien über alice.law, die eine zulassende, aber vorsichtige Haltung einnehmen:

Der CCBE (Rat der Anwaltskammern Europas) verstärkte dies mit seinem Leitfaden vom Oktober 2025 zur Nutzung generativer KI durch Anwälte und etablierte einen europaweiten Rahmen, der berufliche Verantwortung über Verbot betont.

Die Position der belgischen Buchhalter

Das ITAA-Barometer 2025 zeigt einen Berufsstand, der sich der KI zuwendet, statt sich von ihr abzuwenden:

ITAA-Präsident Bart Van Coile erklärte, dass Mitglieder „den Druck zunehmend komplexer Vorschriften spüren, aber der Anker des Vertrauens” für ihre Mandanten bleiben. Diese Rahmung — KI als Werkzeug, das die Rolle des vertrauenswürdigen Beraters verbessert, nicht bedroht — entspricht genau der regulatorischen Philosophie des AI Act.

Die Verpflichtung zur KI-Kompetenz: was sie tatsächlich erfordert

Artikel 4 ist die Bestimmung, die die meisten belgischen Fachleute übersehen, obwohl sie bereits in Kraft ist. Sie verlangt, dass Anbieter und Anwender sicherstellen, dass Mitarbeiter ein „ausreichendes Niveau an KI-Kompetenz” haben, unter Berücksichtigung ihres „technischen Wissens, ihrer Erfahrung, Ausbildung und Schulung” sowie des „Kontexts, in dem die KI-Systeme verwendet werden sollen.”

In der Praxis bedeutet dies:

  1. Ihre Mitarbeiter sollten verstehen, wie die von ihnen verwendeten KI-Tools auf konzeptioneller Ebene funktionieren — nicht die technische Architektur, sondern den allgemeinen Ansatz (abrufbasiert vs. generativ, was „Confidence Scoring” bedeutet, warum Quellen wichtig sind)
  2. Ihre Mitarbeiter sollten verstehen, was die Grenzen des Tools sind — was es nicht kann, wo es Fehler macht, wann unabhängig überprüft werden muss
  3. Ihre Mitarbeiter sollten verstehen, was der berufliche Verantwortungsrahmen ist — die KI gibt einen Entwurf aus, der Fachmann übernimmt die Beratung
  4. Dokumentation — interne Schulungsunterlagen genügen. Keine formale Zertifizierung erforderlich

Es gibt keine eigenständige Geldstrafe für Verstöße gegen Artikel 4. Aber sie fungiert als „wesentlicher erschwerender Faktor” bei jeder behördlichen Untersuchung. Wenn ein Problem auftritt und die Untersuchung keine KI-Kompetenzschulung aufdeckt, kann jede andere Strafe erhöht werden.

Die nationale Durchsetzung der KI-Kompetenz beginnt im August 2026 durch Marktüberwachungsbehörden — in Belgien bedeutet das BIPT.

Die GDPR-Schnittstelle

Für belgische Steuerberater funktioniert der AI Act nicht isoliert. Jedes KI-Tool, das personenbezogene Daten verarbeitet — Mandantennamen, Finanzinformationen, Steuerpositionen — muss gleichzeitig sowohl dem AI Act als auch der GDPR entsprechen.

Wichtige Interaktionspunkte:

Für die professionelle Steuerpraxis: Halten Sie personenbezogene Daten nach Möglichkeit aus Prompts heraus, pseudonymisieren Sie, wo nicht, und stellen Sie sicher, dass Ihr KI-Anbieter eine dokumentierte GDPR-Compliance für seine Datenverarbeitung hat. Dies sind Anwenderpflichten, die keine rechtliche Expertise zur Umsetzung erfordern — nur Bewusstsein und Disziplin.

Der Strafrahmen

Die Zahlen sind groß genug, um Aufmerksamkeit zu rechtfertigen:

VerstoßMaximale Strafe
Verbotene KI-Praktiken35 Millionen Euro oder 7 % des weltweiten Umsatzes (je nachdem, welcher Betrag höher ist)
Verpflichtungen für Hochrisikosysteme15 Millionen Euro oder 3 % des weltweiten Umsatzes
Irreführende Informationen gegenüber Behörden7,5 Millionen Euro oder 1 % des weltweiten Umsatzes

Für KMU gilt der niedrigere der beiden Beträge. Für größere Organisationen der höhere Betrag. Dies sind Maximalstrafen — die tatsächliche Durchsetzung wird wahrscheinlich verhältnismäßig und abgestuft sein, ähnlich der Erfolgsbilanz der GDPR.

Das praktische Risiko für Anwender (professionelle Praxen, die KI-Tools nutzen) ist minimal, aus dem einfachen Grund, dass die Anwenderpflichten minimal sind. Schulen Sie Ihre Mitarbeiter, führen Sie Aufsicht, bewahren Sie Protokolle auf, befolgen Sie Anweisungen. Wenn Sie diese vier Dinge tun, ist der Strafrahmen für Ihre Praxis praktisch irrelevant.

Die eigentliche Compliance-Frage

Die wichtigste Erkenntnis aus dem AI Act ist nicht, was er verbietet. Es ist, was er legitimiert.

Wenn eine Verordnung explizite Compliance-Kriterien für KI-Tools in beruflichen Kontexten festlegt, schafft sie gleichzeitig zwei Kategorien: Tools, die die Kriterien erfüllen, und Tools, die dies nicht tun. Allzweck-Chatbots, die für Steuerrecherche verwendet werden — ohne Quellentransparenz, ohne Audit-Trails, ohne dokumentierte Genauigkeit, ohne Design für menschliche Aufsicht — werden es zunehmend schwer haben, ihre Nutzung in der professionellen Praxis zu rechtfertigen, wenn das regulatorische Rahmenwerk reift.

Speziell entwickelte KI-Tools für Rechtsberatung, die mit Transparenz, Quellenangabe, Confidence Scoring und Human-in-the-Loop-Architektur konzipiert sind, sind nicht nur bessere Tools. Sie sind die konformen Tools. Der AI Act verbietet KI nicht in der professionellen Praxis — er verbietet schlechte KI in der professionellen Praxis.

Der OVB positioniert KI bereits als legitimes Unterstützungstool. Das ITAA sieht KI bereits als Chance. Der regulatorische Rahmen bietet nun die Compliance-Struktur, die professionelles Interesse in professionelle Praxis verwandelt.

Eine praktische Compliance-Checkliste für belgische Steuerpraxen

Bereits erforderlich (seit Februar 2025):

Erforderlich bis August 2026:

Laufende Best Practice:



Wie Auryth TX dies umsetzt

Auryth TX ist durch Architektur für die Einhaltung des AI Act konzipiert, nicht nachträglich.

Jede Rechercheanfrage erzeugt eine vollständig belegte Antwort mit Zitaten auf Artikelebene, Confidence Scoring und einer vollständigen Prüfspur. Das Human-in-the-Loop-Design bedeutet, dass der Fachmann immer die endgültige interpretative Entscheidung trifft — das Tool ruft ab, organisiert und markiert; der Fachmann urteilt, berät und übernimmt Verantwortung.

Quellentransparenz ist kein Feature — sie ist das Fundament. Jede zitierte Bestimmung verlinkt auf ihre Quelle. Jeder Confidence Score spiegelt die Abrufqualität und Abdeckungstiefe wider. Jede Recherchesitzung erzeugt eine dokumentierte Spur, die für professionelle Unterlagen geeignet ist.

Für die Verpflichtung zur KI-Kompetenz: Die Benutzeroberfläche von Auryth ist so konzipiert, dass sie während der Arbeit lehrt. Confidence-Indikatoren, Quellenherkunft, Domänenabdeckungskarten und zeitliche Versionsflags machen das Reasoning des Tools sichtbar — und verwandeln jede Recherchesitzung in implizites Kompetenztraining.

Keine personenbezogenen Daten gelangen durch Design in das System. Anfragen betreffen rechtliche Bestimmungen, nicht Mandanten. Die Architektur eliminiert die GDPR-Schnittstelle, bevor sie entsteht.

Bei 99 Euro pro Monat kostet die Compliance-Infrastruktur, die den Anwenderanforderungen des AI Act entspricht, weniger als eine einzige Stunde Non-Compliance-Risiko.

Schneller recherchieren. Mehr abdecken. Besser beraten — konform.


Sources: 1. European Parliament and Council (2024). Regulation (EU) 2024/1689 (AI Act). Official Journal of the European Union. 2. OVB (2025). “AI-richtlijnen voor advocaten.” ovb.be. Siehe auch: Alice.law (2025). “AI guidelines for lawyers in Belgium and the Netherlands.” 3. CCBE (2025). “Guide on the use of generative AI by lawyers.” ccbe.eu. 4. ITAA (2026). “ITAA-Barometer 2025.” blogitaa.be. 5. European Commission (2025). “General-Purpose AI Code of Practice.” digital-strategy.ec.europa.eu. 6. Ooms, W. & Gils, T. (2025). “Implementing the AI Act in Belgium: Scope of Application and Authorities.” SSRN. 7. ICT Rechtswijzer (2025). “The AI Act — Belgian implementation.” ictrechtswijzer.be.