Ga naar inhoud
DataDream
← Alle artikelen
AI Uitleg10 min

Wat is een LLM en waarom maakt het verschil?

Laurens van Dijk

Oprichter, DataDream

Iedereen heeft het over ChatGPT, Claude en Gemini. Maar wat zit er nou eigenlijk onder de motorkap? Een Large Language Model (LLM) is geen magie en geen sciencefiction. Het is een statistisch model dat heel goed is geworden in het voorspellen van het volgende woord, en uit die simpele taak is een hele generatie nieuwe software ontstaan. In dit artikel leg ik uit wat een LLM is, hoe het werkt, wat het wel en niet kan, en waar het concreet verschil maakt voor MKB-bedrijven in Nederland.

Wat is een LLM in één paragraaf

Een Large Language Model is een neuraal netwerk dat is getraind op enorme hoeveelheden tekst. "Large" slaat op het aantal parameters (de instelbare knoppen in het model, vaak honderden miljarden) en op de hoeveelheid tekst waarop het is getraind. Het model leert patronen in taal: welke woorden volgen op welke woorden, welke zinnen passen bij welke contexten, welke antwoorden horen bij welke vragen. Het resultaat is een systeem dat tekst kan schrijven, samenvatten, vertalen, code genereren en stapsgewijs redeneren, allemaal door telkens het meest waarschijnlijke volgende stukje tekst te voorspellen.

Voor wie liever met de basis AI-uitleg begint: lees eerst wat is AI: uitleg voor MKB.

Hoe een LLM werkt in 60 seconden

Drie begrippen vatten het samen: tokens, training en voorspelling.

Tokens. Een LLM ziet geen letters of woorden, maar tokens. Een token is een stukje tekst, vaak 3 tot 4 letters of een halve lettergreep. Het woord "datadream" wordt bijvoorbeeld opgesplitst in twee of drie tokens. Moderne modellen zijn getraind op honderden miljarden tot triljoenen tokens. Llama 3 werd getraind op 15 biljoen tokens, GPT-4 op naar schatting nog veel meer.

Training. Tijdens training krijgt het model miljarden voorbeelden te zien en moet het telkens het volgende token voorspellen. Krijgt het model "De hoofdstad van Nederland is", dan moet het leren dat "Amsterdam" een waarschijnlijker volgend token is dan "Berlijn". Dit gebeurt biljoenen keren, en de parameters worden steeds bijgesteld tot het model goed wordt in voorspellen. Daarna komt een tweede fase: fine-tuning met menselijke feedback (RLHF), waar mensen het model leren wat een nuttig of een onveilig antwoord is.

Voorspelling. Als jij een vraag stelt, voorspelt het model token voor token het meest waarschijnlijke antwoord. Het denkt niet, het weet niets in de echte zin. Het is heel goed geworden in het patroon-matchen van wat een goed antwoord eruit zou moeten zien. Dat is tegelijk z'n kracht en z'n grootste beperking.

Waarom 2022 het kantelpunt was

LLMs bestonden al langer, maar 2022 veranderde alles. Drie dingen kwamen samen.

In 2017 publiceerde een team van Google de paper Attention is All You Need. Daarin werd de transformer-architectuur geïntroduceerd, het rekenmodel waarmee je teksten parallel kunt verwerken in plaats van woord voor woord. Dat maakte training op enorme schaal mogelijk.

In 2020 lanceerde OpenAI GPT-3, met 175 miljard parameters. Dat was groot genoeg om verbluffende dingen te doen, maar nog niet toegankelijk voor het grote publiek.

In november 2022 lanceerde OpenAI ChatGPT, gebaseerd op GPT-3.5. Binnen vijf dagen zaten er een miljoen gebruikers op, binnen twee maanden honderd miljoen. Voor het eerst kon iedereen, niet alleen onderzoekers, met een LLM praten in normale taal. Dat was het kantelpunt: AI ging van laboratorium naar laptop.

Sindsdien is het tempo idioot. Anthropic, Google, Meta en Mistral zijn met krachtige modellen op de markt, context windows zijn gegroeid van 4.000 tokens naar 1 miljoen+, en de kosten per miljoen tokens zijn met meer dan 90% gedaald.

Wat een LLM goed kan

Een LLM is sterk in alles wat met taal en patronen te maken heeft.

Schrijven en herschrijven. Blogposts, e-mails, productbeschrijvingen, samenvattingen, social posts. Met een goede prompt en jouw merkstem als input levert een LLM in seconden een eerste versie. Niet altijd af, maar wel een goede start. Over content op schaal lees je meer op /ai-content.

Samenvatten en structureren. Geef een LLM een rapport van 50 pagina's en vraag om de drie belangrijkste conclusies. Of laat losse notities omzetten in een net document. Hier wint een LLM het ruim van een mens, ook qua tijd.

Vertalen. LLMs vertalen vaak beter dan Google Translate, vooral voor langere stukken waar context belangrijk is. Anthropic publiceerde een vergelijking waaruit bleek dat Claude 3 op meerdere meertalige benchmarks beter scoorde dan eerdere modellen.

Code schrijven en debuggen. Volgens GitHub's Developer Survey 2023 gebruikte toen al 92% van de professionele ontwikkelaars AI-tools, en de Stack Overflow Developer Survey 2025 bevestigt dat dit percentage rond de 84% is gestabiliseerd. LLMs schrijven niet alleen code, ze leggen bestaande code uit, vinden bugs en suggereren refactors.

Stapsgewijs redeneren. Moderne modellen zoals Claude Opus 4.7 en GPT-5 kunnen complexere problemen oplossen door tussenstappen expliciet uit te schrijven (chain-of-thought). Dat werkt vooral goed voor analyses, planning en wiskundige problemen.

Waar een LLM mis kan gaan

Net zo belangrijk: weet wat een LLM niet kan, want daar gaan de meeste implementaties stuk.

Hallucinaties. Een LLM voorspelt het meest waarschijnlijke antwoord, niet het meest correcte. Als het iets niet weet, kan het zelfverzekerd een verzonnen feit, citaat of bronverwijzing produceren. Onderzoek van OpenAI laat zien dat zelfs de nieuwste modellen tussen de 1% en 30% hallucineren, afhankelijk van het type vraag. Voor publicaties of juridisch werk: altijd factchecken.

Kennisdatum. Een model is getraind tot een bepaalde datum (de "knowledge cutoff"). Vraag je iets over deze week, dan weet het model niets, tenzij het toegang heeft tot live web search. Claude, ChatGPT en Gemini hebben tegenwoordig allemaal web-grounding ingebouwd, maar dat moet je expliciet aanzetten.

Geen echt begrip. Een LLM "snapt" niet wat het schrijft, het voorspelt patronen. Bij rekenwerk, logica of complexe planning maakt het soms fouten waar een 10-jarige doorheen prikt. Combineer een LLM voor dat soort taken altijd met externe tools (een calculator, een kalender, een database).

Kosten. API-kosten zijn flink gedaald, maar bij groot volume tellen ze op. Een LLM-aanroep kost tussen $0,50 en $30 per miljoen tokens, afhankelijk van model en provider. Voor een chatbot met 100.000 gesprekken per maand wordt dat snel een paar duizend euro per maand. Goede architectuur (caching, kleinere modellen voor simpele taken, RAG) kan kosten met 70% omlaag krijgen.

Privacy. Als je gevoelige bedrijfsdata in een LLM stopt, is dat een aandachtspunt. Daarover later meer.

De grote LLMs in 2026

Het landschap is in 2026 redelijk uitgekristalliseerd. Vier grote spelers en een groeiende open source beweging.

Claude (Anthropic). Het topmodel is nu Claude Opus 4.7, met een context window van 1 miljoen tokens. Sterk in lange documenten, code, onderzoek en agentische taken. Prijs: ongeveer $15 per miljoen input tokens, $75 per miljoen output tokens. Claude heeft een sterke focus op constitutional AI en veiligheid. Mijn persoonlijke voorkeur voor serieus werk.

GPT (OpenAI). GPT-5 is breed beschikbaar, GPT-4o blijft populair vanwege snelheid en multimodaliteit (beeld, spraak, video). Prijs ligt rond $5 tot $20 per miljoen tokens, afhankelijk van model. ChatGPT zelf is voor veel mensen het eerste contactpunt met AI. Zie de OpenAI documentatie.

Gemini (Google). Gemini 2.5 Pro met native multimodaliteit en zeer grote context windows (1M+ tokens). Sterk in research door directe Google Search-grounding. Prijs is concurrerend, vaak iets goedkoper dan OpenAI of Anthropic. Google's Gemini documentatie.

Mistral (Frans/Europees). Mistral Large is het Europese alternatief, sterk in meertaligheid en vaak interessant voor bedrijven die Europese data-residency willen. Lager geprijsd dan de Amerikaanse top, prima kwaliteit voor de meeste zakelijke taken.

Llama (Meta). Open source. Llama 4 is gratis te downloaden en zelf te draaien, of via providers zoals Groq en Together AI. Voor bedrijven die volledige controle willen over hun infrastructuur, of die strikte privacy-eisen hebben, is Llama de standaardkeuze. Llama-modellen zijn ook commercieel bruikbaar onder de Meta licentie.

Voor de meeste MKB-toepassingen is een keuze tussen Claude en GPT prima. Wil je Europese hosting of zelf draaien: Mistral of Llama.

Hoe LLMs het verschil maken voor jouw bedrijf

Tot zover de techniek. Wat levert dit nou concreet op voor een MKB-bedrijf? Vijf toepassingen waar je binnen weken resultaat ziet.

1. Klantenservice die nooit slaapt. Een chatbot bovenop je kennisbank en FAQ's beantwoordt 60 tot 80% van de standaardvragen automatisch. Voor de rest schakelt het door naar een mens, met de gespreksgeschiedenis al ingevuld. Resultaat: snellere reactietijden, lagere kosten per ticket, medewerkers die zich op echte problemen richten. Belangrijk: dit werkt alleen met goede RAG (zie verderop), anders gaat het bot hallucineren over jouw producten.

2. Content op schaal zonder vlakke output. Met een goede prompt-bibliotheek en jouw merkstem als input genereer je product-content, blogposts en e-mails 5x sneller dan handmatig. Een redacteur reviewt en publiceert. Voor een webshop met 200 SKUs scheelt dat 3 tot 5 dagen werk per maand.

3. Onderzoek en analyses van uren naar minuten. Marktonderzoek, concurrentie-analyses, samenvattingen van rapporten of contracten: een LLM doet in 10 minuten wat een junior consultant een dag kost. Combineer dat met live web search en je hebt een research-assistent die ook nieuwe informatie meeneemt.

4. Persoonlijke communicatie op schaal. E-mails, voorstellen en presentaties die echt afgestemd zijn op de ontvanger. Niet generieke mail-merge, maar inhoudelijk passend per klant of segment. Open rates en respons gaan met tientallen procenten omhoog wanneer dit goed gebeurt.

5. Agents die taken uitvoeren, niet alleen antwoorden. Het verschil tussen een chatbot en een echte AI-agent is dat de tweede tools kan gebruiken: e-mails versturen, data ophalen, formulieren invullen, afspraken inplannen. Lees daarover AI-agent vs chatbot: het verschil en /ai-agents.

McKinsey schat dat generatieve AI tussen de $2,6 en $4,4 biljoen aan jaarlijkse waarde toevoegt wereldwijd. Voor het MKB is de winst minder spectaculair maar veel concreter: 20 tot 40% productiviteitsstijging op specifieke processen, mits goed geïmplementeerd.

Open source vs closed source: wat kies je?

Een vraag die regelmatig opduikt: moet ik mijn AI op een commerciële API draaien, of zelf hosten met open source?

Closed source (Claude, GPT, Gemini) is de standaard voor de meeste bedrijven. Je betaalt per gebruik, je krijgt het beste model van dat moment, en je hoeft geen infrastructuur te beheren. Nadelen: je data gaat naar de provider (al kun je dat met enterprise-contracten dichttimmeren), en je bent afhankelijk van hun pricing en beschikbaarheid.

Open source (Llama, Mistral, Qwen) is interessant als je strenge privacy-eisen hebt, je eigen GPU's hebt, of als je een specifiek model wilt fine-tunen op jouw data. Nadeel: je betaalt vooraf veel meer (infrastructuur, expertise) en de modellen zijn vaak een halve generatie achter op de top closed source modellen.

Voor 90% van de MKB-bedrijven: begin met closed source via API. Open source wordt interessant als je volume groot genoeg wordt of als compliance dat eist.

Privacy en data: wat moet je weten

Twee dingen om te onthouden voordat je gevoelige data in een LLM stopt.

1. Verwerkersovereenkomst en data-residency. Bij gebruik via een gewone consumentenchatbot (gratis ChatGPT, Claude.ai) heb je geen verwerkersovereenkomst en kan je data gebruikt worden voor training. Voor zakelijk gebruik altijd een betaald team- of API-account, met DPA en de juiste opt-outs. Anthropic, OpenAI en Google bieden dit allemaal. Voor strikte EU-data-residency: Mistral, of een EU-region bij Azure OpenAI.

2. AI Act en AVG. De EU AI Act is sinds 2024 van kracht en wordt gefaseerd ingevoerd. Voor de meeste MKB-toepassingen (chatbots, content-generatie, productiviteit) val je in de "limited risk" categorie: je moet duidelijk maken dat een gebruiker met AI praat. Voor toepassingen rond werving, kredietverlening of biometrische data gelden veel zwaardere eisen. AVG geldt onverminderd: persoonsgegevens niet zomaar in een LLM gooien zonder grondslag en beveiliging.

Het patroon dat in 2026 standaard is geworden: Retrieval-Augmented Generation (RAG). In plaats van het model alles laten weten, geef je het op het moment van de vraag de relevante stukjes uit jouw eigen documenten. Voordelen: actuele kennis, minder hallucinaties, controle over wat het model "weet". Voor zakelijke chatbots en interne kennistools is RAG inmiddels de norm.

Conclusie: LLMs zijn een nieuwe categorie software

Een LLM is geen Google die toevallig kan praten, en geen mens die toevallig in een computer zit. Het is een nieuwe categorie software: een statistisch taalmodel dat patronen herkent en voortzet. Dat is minder romantisch dan de marketing soms suggereert, maar tegelijk wel revolutionair, omdat zoveel werk in een bedrijf uit het bewerken van taal en informatie bestaat.

Het verschil dat een LLM maakt voor jouw bedrijf hangt af van twee dingen: kies je de juiste toepassingen waar de techniek echt waarde toevoegt, en heb je de discipline om het netjes te integreren met je data, je merkstem en je processen. Zonder die discipline is het een dure speeltjes-stack. Met die discipline is het de grootste productiviteitsstap in 20 jaar.

Wil je weten waar AI in jouw bedrijf nu al verschil kan maken? Doe de gratis AI-scan of plan een gesprek over een concrete AI-strategie. Geen consultancy-circus, gewoon een eerlijke inventarisatie van waar de eerste 20% winst zit.

Benieuwd wat AI voor jouw bedrijf kan betekenen?

Doe de gratis AI Scan en ontdek het in 1 minuut.

Start de AI Scan →