Ga naar inhoud
Wat is een Large Language Model en waarom zou je dat willen weten?
ai-basicstechnologie

Wat is een Large Language Model en waarom zou je dat willen weten?

8 min lezen

De motor achter ChatGPT, Claude en Gemini

Je hebt waarschijnlijk al eens met ChatGPT gewerkt. Of met Claude, Copilot of Gemini. Misschien gebruik je het dagelijks. Maar heb je je weleens afgevraagd wat er achter de schermen gebeurt als je een vraag stelt?

De technologie die al deze tools aandrijft, heet een Large Language Model (afgekort: LLM. En hoewel je niet hoeft te begrijpen hóe het precies werkt, helpt een basisbegrip je enorm bij het effectiever gebruiken van deze tools.

Vergelijk het met autorijden: je hoeft niet te weten hoe een verbrandingsmotor werkt, maar als je begrijpt dat je tank leeg kan raken en dat glad wegdek gevaarlijk is, rijd je een stuk veiliger.

De extreem belezen stagiair

De beste metafoor voor een LLM? Stel je een stagiair voor die álles heeft gelezen. Elke wetenschappelijke paper, elk boek, elk nieuwsartikel, elk forum, elke handleiding die ooit online is gepubliceerd. Miljarden paginas tekst.

Deze stagiair heeft een ongelooflijk geheugen voor patronen in taal. Hij weet hoe een professionele e-mail eruitziet. Hoe een juridisch contract is opgebouwd. Hoe een Pythonscript werkt. Hoe een klacht empathisch beantwoord wordt.

Maar, en dit is cruciaal, deze stagiair heeft geen eigen ervaring. Hij heeft nog nooit een echte klant gesproken, nooit een echt bedrijf gerund, nooit een echte deadline gevoeld. Alles wat hij weet, komt uit tekst. En soms verwart hij wat hij gelezen heeft met wat waar is.

Dat is precies hoe een LLM werkt. Indrukwekkende kennis, maar zonder echt begrip.

Hoe een LLM technisch werkt (simpel uitgelegd)

Onder de motorkap doet een LLM eigenlijk maar één ding: het volgende woord voorspellen.

Als je typt "De hoofdstad van Nederland is...", dan berekent het model welk woord het meest waarschijnlijk volgt op basis van alle tekst die het ooit heeft gezien. "Amsterdam" scoort verreweg het hoogst. Dus dat genereert het.

Dit klinkt simpel, maar de schaal maakt het bijzonder. Een modern LLM heeft honderden miljarden parameters. wiskundige knoppen die tijdens de training zijn afgesteld om de voorspellingen steeds nauwkeuriger te maken. Het resultaat: tekst die zo natuurlijk klinkt dat je vergeet dat je met software praat.

Het model begrijpt de woorden niet zoals jij en ik dat doen. Het herkent patronen. Het weet dat na "Ik zou graag een afspraak" vaak "willen maken" volgt. Niet omdat het begrijpt wat een afspraak is, maar omdat het dat patroon miljoenen keren heeft gezien.

Waarom LLM's soms onzin vertellen

Nu begrijp je ook waarom AI-tools soms onzin vertellen. de beruchte "hallucinaties."

Omdat een LLM woorden voorspelt op basis van waarschijnlijkheid. niet op basis van waarheid. kan het overtuigend klinkende onzin produceren. Het genereert tekst die er logisch uitziet, maar feitelijk niet klopt.

Stel, je vraagt naar een obscuur juridisch arrest. Het model herkent het patroon "arrest + rechtbank + datum + uitspraak" en genereert iets dat eruitziet als een echt arrest. Compleet met datum, zaaknummer en uitkomst. Alleen: het arrest bestaat niet. Het is een statistische hallucinatie.

Dit is geen bug. Het is een fundamentele eigenschap van hoe de technologie werkt. En het betekent dat je AI-output altijd moet controleren. vooral bij feiten, cijfers en bronverwijzingen.

Verschillende modellen, verschillende sterktes

Niet elk LLM is hetzelfde. De grote spelers. OpenAI (GPT-4), Anthropic (Claude), Google (Gemini), Meta (Llama). hebben elk hun eigen sterktes:

GPT-4 (OpenAI/ChatGPT) is de bekendste en breed inzetbaar. Sterk in creatieve taken, coding en algemene kennis. Beschikbaar via ChatGPT en de API.

Claude (Anthropic) staat bekend om langere, genuanceerdere antwoorden en het volgen van complexe instructies. Sterk in analyse, schrijven en het verwerken van grote documenten.

Gemini (Google) integreert diep met Google-producten en is sterk in multimodale taken. het kan tekst, beeld en video combineren.

Llama (Meta) is open-source, wat betekent dat bedrijven het op eigen servers kunnen draaien. Interessant voor organisaties met strenge privacy-eisen.

Welk model het beste past, hangt af van je use case, privacy-eisen en budget. Er is geen "beste" model. er is het model dat het beste past bij jouw situatie.

Wat betekent dit voor jouw bedrijf?

Als MKB-ondernemer hoef je geen expert te worden in LLM-architectuur. Maar dit basisbegrip helpt je op drie manieren:

Je stelt betere vragen. Nu je weet dat een LLM werkt op basis van woordvoorspelling, begrijp je waarom specifieke, gedetailleerde prompts betere resultaten opleveren dan vage vragen. Hoe meer context je geeft, hoe beter het model kan voorspellen wat jij nodig hebt.

Je vertrouwt niet blind. Je weet nu waarom AI hallucineert. Dus controleer je feiten, cijfers en bronverwijzingen. Je gebruikt AI als startpunt, niet als eindoordeel.

Je maakt betere toolkeuzes. Als een leverancier zegt dat hun tool "op AI draait", kun je nu doorvragen. Welk model? Cloud of lokaal? Hoe wordt je data verwerkt?

De context-truc

Een van de krachtigste inzichten over LLM's is het belang van context. Een LLM heeft geen geheugen buiten het huidige gesprek. Elke vraag start met een blanco lei. tenzij je context meegeeft.

Dit verklaart waarom dezelfde vraag soms briljante en soms matige antwoorden oplevert. Het verschil zit niet in het model, maar in hoeveel context jij meegaf.

Vergelijk het met je stagiair: vraag "Schrijf een mail" en je krijgt iets generieks. Vraag "Schrijf een opvolgmail aan een klant die vorige week een demo heeft gezien van ons boekhoudsysteem, formeel maar warm, maximaal 150 woorden" en je krijgt iets bruikbaars.

De kwaliteit van de output is direct gerelateerd aan de kwaliteit van je input. Dat heet prompt engineering, en het is de belangrijkste vaardigheid die je kunt ontwikkelen als AI-gebruiker.

De snelle ontwikkeling

LLM's ontwikkelen zich in een razend tempo. Wat een jaar geleden state-of-the-art was, is nu achterhaald. Modellen worden sneller, goedkoper, nauwkeuriger en veelzijdiger.

Een paar ontwikkelingen om in de gaten te houden:

  • Langere context. Modellen kunnen steeds meer tekst tegelijk verwerken. van enkele paginas naar hele boeken.
  • Multimodaal. Modellen die niet alleen tekst begrijpen, maar ook beelden, audio en video.
  • Agents. LLM's die niet alleen antwoorden geven maar zelfstandig taken uitvoeren.
  • Goedkoper. De kosten per query dalen snel, waardoor AI steeds toegankelijker wordt voor kleinere bedrijven.

Volgende stap

Een LLM is een krachtig gereedschap, maar net als elk gereedschap moet je weten hoe je het vasthoudt. In onze whitepaper Beter Prompting, Betere Resultaten delen we tien bewezen technieken om meer uit AI-tools te halen. Gratis te downloaden.

Wil je leren hoe je meer uit AI-tools haalt? Download de gratis whitepaper

Meer lezen

Gerelateerde artikelen