Belangrijke termen in Belgisch fiscaal recht en AI uitgelegd
Juridische domeinaanpassing stemt een AI- of zoeksysteem af op juridische taal, bronnen en redenering zodat output preciezer en verdedigbaar wordt.
Kleine trainbare modules ingevoegd in bevroren voorgetrainde modellen, voor efficiënte taakspecifieke fine-tuning met minimale parameters.
Gericht het model aanvallen met moeilijke of kwaadaardige inputs om zwaktes te vinden.
Het proces om AI-systemen te trainen zodat ze handelen in overeenstemming met menselijke waarden, intenties en voorkeuren—het verzekeren dat modellen behulpzaam, onschadelijk en eerlijk zijn.
Zorgen dat elk belangrijk deel van een antwoord herleidbaar is tot concrete bronnen.
Algoritmen die bij benadering gelijksoortige vectoren snel vinden door perfecte nauwkeurigheid in te ruilen voor enorme snelheidsverbeteringen.
Een neurale netwerktechniek waarmee modellen zich kunnen richten op relevante delen van de invoer bij het produceren van uitvoer.
Het AI-vermogen om gegenereerde uitspraken te koppelen aan specifiek bronbewijs, waarbij wordt vastgesteld welke delen van de output door welke documenten worden ondersteund.
Een algoritme dat efficiënt gradiënten berekent door fouten achterwaarts door een neuraal netwerk te propageren, laag voor laag.
Een decoderingsalgoritme dat meerdere kandidaatsequenties parallel verkent en de top-k meest veelbelovende paden bij elke stap behoudt.
Het systematische proces van het evalueren van modelprestaties tegen gestandaardiseerde datasets en metrieken, wat eerlijke vergelijking tussen verschillende modellen, architecturen en benaderingen mogelijk maakt.
Een waardebereik waarvan men gelooft dat het een grootheid met een gegeven kans bevat.
Metrieken die vastleggen hoe stabiel, voorspelbaar en veilig een AI-systeem in de tijd is.
Een neurale architectuur die queries en documenten apart encodeert naar vaste vectoren, wat efficiënte similariteitszoekopdrachten mogelijk maakt via voorberekende embeddings en approximate nearest neighbor indexes.
Bias-mitigatie is het geheel aan methoden om unfair bias in data, modelgedrag en uitkomsten van een AI-systeem te detecteren en te verminderen.
Best Matching 25 - het state-of-the-art probabilistische ranking-algoritme voor tekstzoeken gebaseerd op TF-IDF-principes.
Een subwoord-tokenisatie-algoritme dat een vocabulaire opbouwt door veelvoorkomende symboolparen iteratief samen te voegen.
Het afstemmen van modelconfidences op de werkelijke kans dat antwoorden kloppen.
Een prompting techniek die stap-voor-stap redenering ontlokt van taalmodellen, prestaties op complexe taken verbetert door het redeneerproces van het model expliciet en verifieerbaar te maken.
De methode om documenten te verdelen in kleinere segmenten voor effectieve retrieval en verwerking in RAG-systemen.
De praktijk van expliciet verwijzen naar brondocumenten in AI-gegenereerde antwoorden, waardoor verificatie van claims mogelijk wordt en vertrouwen wordt opgebouwd door transparantie.
Het toevoegen van opgehaalde of extra informatie aan een LLM-prompt om de generatie te sturen.
De maximale hoeveelheid tekst (gemeten in tokens) die een taalmodel in één interactie kan verwerken.
Het regelmatig opnieuw draaien van evaluaties in productie om regressies of drift vroeg te zien.
Een wiskundige maat voor gelijkenis tussen twee vectoren gebaseerd op de cosinus van de hoek ertussen.
Een neurale architectuur die query-document paren gezamenlijk encodeert om relevantiescore te produceren, met hogere nauwkeurigheid dan bi-encoders maar tegen hogere rekenkosten.
Een deelveld van machine learning dat neurale netwerken met veel lagen gebruikt om hiërarchische representaties van data te leren.
Informatieophaling met behulp van aangeleerde dense vectorrepresentaties, voor semantische matching voorbij trefwoordoverlap.
Technieken om de dimensies van embeddings te verlagen terwijl zoveel mogelijk informatie behouden blijft.
Een wiskundige functie die de afstand of gelijkenis tussen twee embeddings kwantificeert.
Een maat voor gelijkenis tussen vectoren gebaseerd op hun inwendig product.
Het afstemmen van embeddings uit verschillende modellen of talen zodat ze vergelijkbaar worden.
Technieken om embeddings kleiner te maken in opslag of bits per vector zonder te veel kwaliteitsverlies.
Langzame verschuiving in de betekenis of schaal van embeddings door model‑ of datawijzigingen.
De vectorruimte waarin embeddings zich bevinden en waar afstanden semantische relaties benaderen.
Een ML‑model dat tekst of andere data omzet in vector-embeddings.
Dichte vectorrepresentaties van data (tekst, afbeeldingen, etc.) die semantische betekenis vastleggen in een continue numerieke ruimte.
De gewone rechte‑lijn‑afstand tussen twee punten in een vectorruimte.
Herbruikbare opzet om evaluaties van AI-systemen te definiëren, draaien en opvolgen.
A curated set van voorbeelden met bekende uitkomsten om modelprestaties te meten.
Facebook AI Similarity Search - de meest uitgebreide open-source library voor efficiënte similarity search en clustering van dense vectoren.
De vraag of een uitleg of antwoord echt overeenkomt met het onderliggende redeneerproces of bewijs.
Een neuraal netwerk waarin informatie alleen voorwaarts stroomt van input naar output, zonder terugkoppellussen.
In welke mate een gegenereerd antwoord overeenstemt met betrouwbare bronnen of ground truth.
De mate waarin AI-gegenereerde inhoud nauwkeurig verifieerbare waarheid weerspiegelt, waarbij correcte uitspraken worden onderscheiden van fabricaties en hallucinaties.
Een machine learning paradigma waarbij modellen taken leren uitvoeren met slechts een handvol voorbeelden, wat snelle aanpassing mogelijk maakt zonder uitgebreide hertraining of fine-tuning.
Het proces van verder trainen van een voorgetraind model op domeinspecifieke data om prestaties voor gespecialiseerde taken te verbeteren.
Systematisch onderzoeken waar en waarom een model faalt om volgende iteraties te verbeteren.
Een LLM-mogelijkheid waarbij het model gestructureerde argumenten invult om externe tools of functies aan te roepen.
Het deel van een RAG-systeem waar het taalmodel op opgehaalde context steunt om een antwoord te genereren.
Het afdwingen dat LLM-antwoorden in goed gedefinieerde formaten zoals JSON, XML of schema's worden teruggegeven.
Een optimalisatie-algoritme dat modelparameters iteratief aanpast door te bewegen in de richting die de verliesfunctie vermindert.
Een eenvoudige tekstgeneratiestrategie die altijd het token met de hoogste kans selecteert bij elke stap.
De gezaghebbende, geverifieerde referentiedata gebruikt om machine learning-modellen te trainen en evalueren—de 'correcte' antwoorden waartegen modelvoorspellingen worden gemeten.
De techniek om AI-modeloutputs te verankeren aan verifieerbare bronnen, feiten of opgehaalde documenten om hallucinaties te verminderen en nauwkeurigheid te verhogen.
Veiligheidsmechanismen en beperkingen die AI-systemen ervan weerhouden schadelijke, ongepaste of off-topic outputs te genereren—runtime bescherming die verder gaat dan alignment tijdens training.
Wanneer een AI-model valse, verzonnen of onondersteunde informatie genereert die als feit wordt gepresenteerd.
Het aandeel modeluitvoer dat verzonnen of niet onderbouwd is.
Hierarchical Navigable Small World grafen - het state-of-the-art algoritme voor snelle approximate nearest neighbor zoekacties in hoog-dimensionale ruimtes.
Inzet van menselijke reviewers om AI-uitvoer te controleren, corrigeren of goed te keuren.
Het combineren van vector‑ en lexicale indexen om zowel semantische als trefwoordmatching te ondersteunen.
Een retrieval-aanpak die keyword-gebaseerde en semantische vectorzoekopdrachten combineert om de sterke punten van beide te benutten.
Het vermogen van grote taalmodellen om nieuwe taken te leren tijdens inferentie door te conditioneren op voorbeelden of instructies in de prompt, zonder enige parameterupdates.
Het periodiek herberekenen of bijwerken van een vectorindex om nieuwe data of modelwijzigingen te reflecteren.
Het opsplitsen van een grote index in meerdere shards over machines of partities.
Het proces van het gebruiken van een getraind model om voorspellingen of outputs te genereren op nieuwe data.
Een fine-tuning methode die taalmodellen traint om natuurlijke taalinstructies over diverse taken te volgen.
Een datastructuur die termen koppelt aan documentlocaties, voor snelle full-text zoekopdrachten over grote documentcollecties.
Een retrievalstrategie die queries en context herhaaldelijk verfijnt op basis van tussentijdse resultaten.
Het bewust ontwerpen van prompts of inputs om de veiligheids- en beleidskaders van een AI-systeem te omzeilen.
Het trainen van een kleiner student-model om een groter teacher-model na te bootsen, kennisoverdracht met drastisch verminderde grootte en kosten.
Een gestructureerd netwerk van entiteiten en relaties dat machines in staat stelt om real-world concepten te begrijpen en erover te redeneren.
De hoge‑niveaukeuzes voor hoe een systeem kennis ophaalt en structureert voor gebruik door LLM’s.
Large Language Models zijn AI-systemen getraind op enorme hoeveelheden tekstdata om mensachtige tekst te begrijpen en genereren.
De logaritmen van tokenkansen die een taalmodel produceert, gebruikt voor scoring en analyse van generaties.
Low-Rank Adaptation - een efficiënte fine-tuning techniek die kleine adapter-matrices traint in plaats van alle modelgewichten bij te werken.
Een vakgebied van AI waar systemen patronen leren uit data om voorspellingen of beslissingen te maken zonder expliciete programmering.
Retrieval beperken op basis van velden zoals datum, bron, taal of vertrouwelijkheidsniveau.
Een open-source vectordatabase geoptimaliseerd voor het opslaan, indexeren en doorzoeken van massale embedding-vectoren—maakt similarity search mogelijk voor AI-applicaties zoals RAG, semantisch zoeken en aanbevelingen.
Technieken om AI-modelgrootte en rekenvereisten te verminderen met behoud van prestaties, voor efficiënte deployment.
Prestatieverslechtering van een model doordat datadistributie of gebruik in de tijd verandert.
In welke mate een model prestaties behoudt bij ruis, verschuivingen of adversariële input.
Een techniek die meerdere attention-operaties parallel uitvoert, waardoor modellen verschillende soorten relaties tegelijk kunnen vastleggen.
Retrieval dat meerdere opeenvolgende stappen koppelt om complexe, meerstapsvragen te beantwoorden.
AI-techniek die benoemde entiteiten zoals personen, plaatsen en organisaties in tekst identificeert en classificeert voor informatie-extractie.
Algoritmen die de dichtstbijzijnde vectoren bij een query‑embedding zoeken.
Een retrievalpatroon dat expliciet zoekt naar tegensprekend, ontbrekend of ontkrachtend bewijs.
Een machine learning model dat bestaat uit onderling verbonden lagen van kunstmatige neuronen die patronen leren uit data.
Optical Character Recognition—technologie die afbeeldingen van tekst (gescande documenten, foto's, PDF's) omzet naar machineleesbare tekst, waardoor zoeken, bewerken en AI-verwerking van gedrukte of handgeschreven content mogelijk wordt.
Het kwantificeren van hoe onzeker een model is over zijn voorspellingen of antwoorden.
Het ophalen van kleine passages of tekstchunks in plaats van volledige documenten voor preciezere antwoorden.
Een metriek die meet hoe goed een taalmodel tekst voorspelt, waarbij lagere waarden betere voorspellingsabiliteit aangeven.
Een volledig beheerde vector database service specifiek ontworpen voor machine learning applicaties, met serverloze similarity search op schaal.
Techniek in transformer-modellen om informatie over tokenposities toe te voegen aan verder volgorde-ongevoelige embeddings.
De initiële trainingsfase van een groot taalmodel op massale tekstcorpora om algemene taalpatronen, wereldkennis en redeneervermogen te leren vóór taakspecifieke fine-tuning.
De tekstinvoer of instructie die aan een taalmodel wordt gegeven om de responsgeneratie te sturen.
Een aanvalstechniek waarbij kwaadaardige instructies worden ingevoegd in LLM-inputs om systeemprompts te overschrijven, guardrails te omzeilen of modelgedrag op onbedoelde manieren te manipuleren.
Het verwijderen van onnodige gewichten of neuronen uit neurale netwerken om modelgrootte en rekenkosten te verminderen zonder significant nauwkeurigheidsverlies.
Quantized LoRA - combineert 4-bit quantisatie met LoRA adapters, waardoor 65B+ modellen fine-tunen op een enkele 48GB GPU mogelijk wordt.
Het verlagen van modelprecisie van 32/16-bit naar 8/4-bit, wat geheugengebruik drastisch vermindert en inferentie versnelt.
Technieken die automatisch zoekqueries herformuleren of uitbreiden om retrieval te verbeteren door synoniemen, gerelateerde termen of herformuleringen toe te voegen.
Het herschrijven van een gebruikersvraag naar een vorm die beter werkt voor retrieval.
Controleren dat wijzigingen in modellen of pipelines bestaand gedrag niet onbedoeld verslechteren.
Een machine learning aanpak waarbij agents optimaal gedrag leren door trial-and-error interacties met een omgeving.
Een tweede-fase retrievaltechniek die initiële zoekresultaten herordent om relevantie te verbeteren met geavanceerdere modellen.
De mate waarin een retrievalsysteem alle informatie kan bovenhalen die nodig is om vragen in een domein te beantwoorden.
Regels of metadatafilters toepassen om te beperken welke documenten voor een query kunnen worden opgehaald.
De tijd die een retrievalsysteem nodig heeft om resultaten voor een query terug te sturen.
Het coördineren van meerdere retrievalstappen, indices of tools om één AI‑taak of query te bedienen.
Een geordende reeks stappen die een query en documenten verwerken om gerangschikte resultaten terug te geven in een RAG- of zoeksysteem.
Het deel van de opgehaalde documenten dat daadwerkelijk relevant is voor de query.
Het deel van alle echt relevante documenten dat een retrievalsysteem weet terug te vinden.
De berekening van numerieke relevantiescores voor documenten of chunks gegeven een query.
RAG is een AI-techniek die informatieopvraging combineert met tekstgeneratie om nauwkeurige, brongebaseerde antwoorden te produceren.
Het deel van een RAG-systeem dat relevante documenten of chunks zoekt en rangschikt vóór de generatie.
Reinforcement Learning from Human Feedback—een techniek om taalmodellen te fine-tunen met menselijke voorkeuren als beloningssignalen.
Een mechanisme waarbij elk element in een sequentie attention-gewichten berekent met alle andere elementen in dezelfde sequentie.
Het groeperen van embeddings in clusters op basis van semantische gelijkenis.
Zoektechnologie die betekenis en intentie begrijpt in plaats van alleen trefwoorden te matchen, voor relevantere en intelligentere resultaten.
Een maat voor hoe vergelijkbaar twee stukken tekst zijn qua betekenis, ongeacht de specifieke woorden die worden gebruikt.
Een taal-agnostische subwoord-tokenizer die een vocabulaire direct uit ruwe tekst leert.
Zoektechnieken die de meest gelijkende items in een embeddingsruimte terugvinden.
Een chunkstrategie waarbij overlappende vensters over een document schuiven om context tussen chunks te behouden.
Informatieophaling met hoogdimensionale sparse vectoren gebaseerd op termfrequenties, zoals BM25 en TF-IDF.
Het testen van hoe een AI-systeem zich gedraagt onder extreme of gedegradeerde omstandigheden.
Een machine learning aanpak waarbij modellen leren van gelabelde trainingsdata om outputs voor nieuwe inputs te voorspellen.
Het verborgen of vaste instructieblok dat het algemene gedrag en de beperkingen van een LLM in een toepassing bepaalt.
Een parameter die de willekeurigheid van taalmodeloutputs regelt, en creativiteit versus consistentie beïnvloedt.
Term Frequency-Inverse Document Frequency - een statistische maat voor woordbelang in een document ten opzichte van een collectie.
Het proces van het opsplitsen van tekst in kleinere eenheden (tokens) die taalmodellen kunnen verwerken en begrijpen.
Het ontwerppatroon waarbij LLM's beslissen wanneer en hoe externe tools worden aangeroepen om taken uit te voeren.
Een samplingmethode die tokenselectie beperkt tot de k meest waarschijnlijke volgende tokens bij elke generatiestap.
Een samplingmethode die selecteert uit de kleinste set tokens waarvan de cumulatieve kans een drempel p overschrijdt.
Een neurale netwerkarchitectuur die self-attention gebruikt om sequentiële data parallel te verwerken, de basis van moderne LLM's.
Het vermogen om te begrijpen, interpreteren en uitleggen hoe AI/ML-modellen voorspellingen maken—essentieel voor vertrouwen, debugging, regelgevingscompliance en verantwoorde AI-inzet.
Een machine learning aanpak waarbij modellen patronen en structuur in data ontdekken zonder gelabelde voorbeelden.
Een gespecialiseerde database geoptimaliseerd voor het opslaan en doorzoeken van hoogdimensionale vector embeddings met similariteitsmetrieken.
Het schalen van embeddings naar een vaste norm, vaak eenheidsvectoren, om vergelijkingen stabieler te maken.
Een compressietechniek die continue embeddings afbeeldt op een beperkt aantal codewoorden.
Numerieke vectorvoorstellingen van tekst of andere data waarmee semantische gelijkenis kan worden gemeten.
Het bouwen van datastructuren die snelle similarity search over embeddings mogelijk maken.
Een wiskundige functie die meet hoe ver de voorspellingen van een model afwijken van de gewenste outputs tijdens training.
Een open-source vectordatabase die vector search combineert met gestructureerde datafiltering en ingebouwde machine learning-modules—maakt semantisch zoeken, RAG en AI-native applicaties mogelijk.
Een machine learning vermogen waarbij modellen taken uitvoeren zonder taak-specifieke voorbeelden, puur vertrouwend op voorgetrainde kennis en natuurlijke taalinstructies.