De black box geopend: hoe LLM’s hun output bepalen
AI is overal, van directiekamers tot collegezalen. Hoewel de adoptie snel gaat, blijft de kernvraag vaak onbeantwoord: hoe bepaalt een Large Language Model (LLM) wat het zegt?
In deze driedelige reeks breek ik het open. In deze eerste blog kijken we naar de logica achter de output. In deel twee bekijken we hoe je daadwerkelijk rankt in deze wereld, en in deel drie leer ik je hoe je die resultaten vervolgens meet.
Een AI-antwoord oogt zeker. Je typt een vraag, ziet de tekst over je scherm rollen en denkt: Hij weet het gewoon weer hè!! Maar onder de motorkap gebeurt er van alles, de informatie ligt niet klaar. De reactie wordt pas geconstrueerd op het moment dat je gaat zoeken.
Zolang we de output van een LLM als een zwarte doos behandelen, varen we blind. We maken dan een cruciale fout: we overschatten de feitelijke zekerheid en onderschatten het proces. Dat proces verklaart waarom antwoorden variëren of waarom bronnen verschillen. Zonder dit inzicht blijft AI een gokkast waarop we onterecht onze strategieën gaan baseren.
Tijd om de black box te openen! In deze blog duiken we in de logica van het systeem met recente data punten. Je zult ontdekken dat één prompt een explosie aan parallelle processen ontketent – een fenomeen dat we query fan out noemen. Wie deze mechanica begrijpt leert de werkelijke aard van moderne informatie kennen.
Hoe een LLM “denkt”
Een LLM leest je prompt niet als een vraag met één vaststaand antwoord. In plaats daarvan zet de machine je woorden om in statistische beslissingen. Elk woord dat op je scherm verschijnt, is simpelweg de meest logische opvolger van het woord ervoor.
Dit betekent dat de output:
- Stapsgewijs ontstaat – Via next-token prediction wordt het antwoord woord voor woord opgebouwd.
- Vloeibaar is – Kleine variaties in context sturen de kansberekening telkens een andere kant op.
- Context zoekt, geen waarheid – De machine zoekt niet naar de ‘feitelijke waarheid’, maar naar het meest waarschijnlijke antwoord binnen jouw kaders.
De basis: Training en synthese
Hoe leert de machine dit? Voordat een LLM een letter voor je typt, doorloopt het een intensieve trainingsfase. Het model wordt gevoerd met miljarden teksten om patronen en structuren te herkennen. Via backpropagation (een proces waarbij het model zijn interne parameters bijstelt om het verschil tussen de voorspelde en de juiste tekst te verkleinen) past de AI zichzelf voortdurend aan om fouten te minimaliseren.
Het model slaat geen kopieën van teksten op. Het bouwt een complex begrip op van taal en context. In de generatiefase kopieert de AI dus niet, maar synthetiseert het volledig nieuwe, contextueel relevante tekst op basis van die aangeleerde patronen.
Omdat de AI het antwoord woord voor woord opbouwt, is de output geen letterlijk knip-en-plakwerk, maar een nieuwe statistische creatie. Toch zit er een addertje onder het gras. Zodra een model zoals Perplexity of ChatGPT live het web opgaat, verandert de dynamiek. De machine leunt dan zwaar op de bronnen die op dat moment bovenaan de zoekresultaten staan. Het antwoord is dan wel een nieuwe creatie, maar de inhoud is sterk gekleurd door de visie van de best vindbare bronnen.
De explosie onder de motorkap: Query fan out
Jouw vraaag is voor de AI slechts het startpunt. Zodra je op ‘enter’ drkukt, gebeurt er iets bijzonders: de machine ‘blaast’ jouw simpele vraag op tot wel 10 of 20 nieuwe, specifieke vragen. Dit noemen we query fan out. De AI stelt deze vragen razendsnel aan zichzelf om een compleet antwoord te vormen.
Er is online de nodige kritiek over dit concept. Online beweren ze dat ‘query fan out’ een overgehypte term is voor simpelweg “gerelateerde zoekopdrachten” en dat de impact op SEO zwaar wordt overschat. Men vraagt zich af of de machine wel écht zo complex te werk gaat.
Toch veegt recent onderzoek van Semrush die twijfel van tafel. Een grootschalig experiment van Semrush laat zien dat dit mechanisme allesbehalve theoretisch is. Door content te optimaliseren voor de onderliggende ‘fan-out’ vragen die een LLM genereert, zagen zij het aantal citaties in AI-antwoorden met maar liefst 150% stijgen.
Dit experiment bewijs dat de machine een onderwerp vanuit alle hoeken bekijkt: van praktische vragen tot vergelijkingen met andere producten. Voor ons als SEO-specialisten is de opdracht nu: we moeten achterhalen welke vragen de AI intern stelt. De grote vraag is dan: verwerken we die antwoorden in onze huidige teksten, of moeten we hier compleet nieuwe pagina’s voor bouwen.

Bron: Semrush
Elke vertakking in deze fan out kiest een andere invalshoek, raadpleegt andere bronnen en vecht uiteindelijk om een plekje in de definitieve synthese die op jouw scherm verschijnt
Deze grafiek van Seer Interactive laat zien hoe bizar dit proces is: 95% van deze interne zoekopdrachten heeft 0 zoekvolume.

Bron: Seerinteractive
Dit betekent dat in dit geval Gemini zichzelf voortdurend vragen stelt die wij als mensen nooit letterlijk in een zoekbalk zouden typen. Het systeem checkt feiten en actualiteit in de ‘hyper-long tail’ van informatie, nog voordat het begint met praten. Je concurreert dus niet met andere websites op jouw zoekterm, maar met de onzichtbare vragen die de AI intern genereert.
De machinetaal van search
Niet alleen ChatGPT “denkt” na over je vraag; elk modern zoekproces vuurt een zwerm interne queries af. De data toont echter een cruciaal verschil in diepgang:
- Google’s Fan-out – Blijft dicht bij de basis. De interne vragen zijn gemiddeld 3,4 woorden lang.
- ChatGPT’s Fan-out – Gaat veel dieper. De interne queries zijn 61% langer (gemiddeld 5,5 woorden).
Dit duidt op een veel hogere mate van specificiteit en intentie-modellering. We zijn beland in een tijdperk van zero-volume search: de belangrijkste vragen op het internet worden momenteel niet door mensen, maar door algoritmes gesteld om de juiste passage uit jouw content te vissen.
De AI als Agent: Native kennis vs. Live retrieval
Niet elk antwoord wordt op dezelfde manier ‘gebakken’. De machine balanceert constant tussen twee bronnen:
- Native kennis – Informatie uit de training van het model. Dit is snel en goedkoop, maar mogelijk verouderd.
- Live retrieval – De AI gaat het web op via RAG (Retrieval-Augmented Generation).
Opvallend is dat bij ChatGPT de ‘zoekmodus’ pas bij ongeveer een derde van de vragen aangaat. De AI maakt continu een economische afweging: is de extra rekenkracht en tijd van een live zoekopdracht de moeite waard?
Het is een misverstand dat GPT, Claude of Gemini simpelweg “slimme tekstverwerkers” zijn. In werkelijkheid zijn het agents met ingebouwde tools die vaak voor de gebruiker verborgen blijven. Deze agents kunnen een ‘keten van gedachten’ (chain of thought) orkestreren, code uitvoeren en zoekopdrachten uitzetten. Wanneer de AI het internet opgaat, gedraagt hij zich als een traditionele crawler (zoals Google dat doet). Dit is geen LLM-gedrag, maar een bewuste inzet van gereedschap door de agent om jouw vraag te beantwoorden. Beoordeel de output van deze ‘digitale medewerker’ dan ook zoals je een menselijke collega zou beoordelen: op de kwaliteit van de synthese.
Het verschuivende landschap: Waarom Gemini niet meer te negeren is
Lange tijd was Generatieve / LLM’s synoniem aan ChatGPT. Het leek een onwankelbaar monopolie, maar begin 2026 is er sprake van flinke verschuiving. De absolute dominantie van OpenAI wankelt.

Bron: Similarweb
De cijfers spreken voor zich:
- ChatGPT verliest terrein – Waar het vorig jaar nog ruim 87% van de markt in handen had, is dat aandeel in januari 2026 gezakt naar circa 64,5%.
- De opmars van Gemini – Google’s AI schoot in dezelfde periode omhoog van een schamele 5,4% naar ruim 21,5%.
Google Gemini Gains Share As ChatGPT Declines In Similarweb Data
Dit is meer dan een statistiek; het is een groeispurt van 30% tot 49% in slechts enkele maanden.
De verschillende smaken in LLM’s:
Omdat de markt in 2026 verdeeld is, kun je niet langer gokken op één paard. De architectuur van een model bepaalt namelijk de ‘smaak’ van het antwoord: waar de één leunt op creatieve logica, vertrouwt de ander op harde index-data.
Model | Generatielogica | Rol van search (RAG) | Output karakter |
ChatGPT | Probabilistisch (Next-token prediction) | Optioneel; gebruikt als validatie achteraf | Vloeiend, creatief, maar gevoeliger voor hallucinaties |
Gemini | Search-integrated generatie | Primair; Google-index is de basis | Consistent, feitelijk, leunt op autoriteitssignalen |
Perplexity | Retrieval-first architectuur | Harde eis; model dient als ‘lezer’ van bronnen | Transparant, zakelijk, sterk afhankelijk van bronkwaliteit |
Claude | Context-focused (Constitutional AI) | Beperkt; prioriteit aan interne logica | Genuanceerd, voorzichtig, sterke focus op consistentie |
ChatGPT vs. Gemini
- ChatGPT is ‘Model-First’ – Het begint bij redeneren vanuit zijn neurale netwerk. Pas als de onzekerheid te groot is, gaat de ‘zoekmodus’ aan.
- Gemini is ‘Search-First’ – Gebouwd bovenop de Google-index, leunt Gemini zwaarder op PageRank en autoriteit. Het is een hyper-geavanceerde samenvatter van wat Google al als betrouwbaar heeft bestempeld.
De nieuwe laag bovenop search
Vroeger was zoeken een keuzemenu: jij stelde een vraag, Google gaf tien blauwe linkjes en jij koos wie je vertrouwde. AI trekt die macht naar zich toe. De machine presenteert een synthese: één samengevoegd antwoord dat de knoop voor je doorhakt.
Daarbij hebben we een nieuwe interface. Je concurreert niet langer om een plek in een lijst, maar om een ingrediënt te zijn in dat ene, definitieve antwoord. Is SEO hiermee alweer dood?! Nee…. Integendeel. LLM’s zijn een extra laag bovenop je huidige strategie. Steeds meer gebruikers beginnen hun zoektocht direct in een chatbot.
Eerlijk is eerlijk: de marketingwereld struikelt momenteel over de termen. AEO, GEO, IAO, iedereen verzint een nieuwe afkorting om interessant te lijken. Ik hou het liever simpel. Laten we de ‘E’ in SEO gewoon veranderen van Engine naar Everywhere. Want dat is de nieuwe realiteit: je moet niet alleen gevonden worden door een algoritme, maar zichtbaar zijn in de volledige synthese van de machine. Hoe wij van Boundless daarover denken
Strategie voor 2026: Van keyword naar subvraag
Alright! En nu? Wat betekent dit allemaal voor je contentstrategie? In een recente webinar deelde Chris Long (Query Fan-Out: What 60,000+ Searches from ChatGPT & Google Show) cruciale inzichten over de werking van LLM’s. Hieruit trekken we drie harde lessen voor je content:
- Structuur is koning – Gebruik tabellen, lijsten en Q&A-blokken; dit maakt je informatie ‘hapklaar’ voor extractie door de machine.
- Prioriteer actualiteit – Tijdens de fan-out zoekt de AI specifiek naar ‘versheid’ (het huidige jaar) en objectieve vergelijkingen.
- Optimalisatie overlapt – Hoewel hun startpunt verschilt, gebruiken ChatGPT en Google vergelijkbare patronen. Optimaliseren voor de één helpt de ander.
Je kunt niet langer alleen optimaliseren voor de ‘hoofdvraag’. De nieuwe uitdaging is: ben ik het antwoord op de tien onzichtbare subvragen die de AI-agent intern afvuurt? De meeste marketeers tasten hierbij nog in het duister en vallen terug op de basis: een beetje People Also Ask (PAA) checken en hopen op het beste. Echter, de huidige SEO-software is simpelweg niet gebouwd voor deze nieuwe werkelijkheid van synthese.
Wie serieus genomen wil worden door een LLM, moet verder kijken. Grote publishers bouwen inmiddels eigen tools om de fan-outs te simuleren. Ze achterhalen de 20 tot 30 subvragen die bij één enkele prompt horen. Bij Boundless Digital doen we hetzelfde. Wij werken aan een interne tool die dit proces decodeert. In plaats van alleen zoekwoorden te behandelen, brengen we de volledige zwerm aan vragen in kaart die een AI-agent gebruikt om tot een antwoord te komen.
De kern blijft: structuur en focus – Pas E-E-A-T strakker en technischer toe dan ooit. Als de machine jouw content niet kan ontleden, zal hij deze ook nooit synthetiseren.
Beweeg mee
Wanneer een systeem informatie ontleedt om deze te hergebruiken in een synthese, heeft het een sterke voorkeur voor content die makkelijk te verteren is. Wie begrijpt hoe de machine deze ‘brokjes’ informatie selecteert tijdens de query fan-out, begrijpt hoe hij zichtbaar blijft in een wereld zonder traditionele resultaten in Google.
De onvermijdelijke volgende vraag is: als de output van de AI een synthese is, hoe zorg je dan dat jouw merk de belangrijkste bouwsteen wordt? Dat is het onderwerp van mijn volgende blog. Volgende keer ga ik verder met de mogelijkheden om te ranken binnen LLM’s. We kunnen de eerste inzichten en aanpak ook direct samen bespreken, plan daarvoor gerust een call in 😉
Harrie van de Sande
Harrie werkt sinds augustus bij Boundless Digital. Met meer dan 5 jaar ervaring als SEO-specialist en marketingstrateeg bij een groot Ecommerce bedrijf in dierenartikelen brengt hij niet alleen veel SEO-kennis met zich mee, maar ook een brede blik op marketing.

