Wat is chain-of-thought prompting?

wat is prompt chaining

Chain-of-thought prompting is een prompttechniek waarbij je een AI-model vraagt om stap voor stap te redeneren voordat het een antwoord geeft. In plaats van direct een conclusie te presenteren, schrijft het model zijn denkstappen uit. Dat levert bij complexe vragen vaak betere en controleerbare resultaten op.

De techniek werd in 2022 geïntroduceerd door onderzoekers van Google, onder leiding van Jason Wei. Zij toonden aan dat taalmodellen aanzienlijk nauwkeuriger presteren op reken-, logica- en redeneertaken wanneer ze hun tussenliggende stappen expliciet formuleren. Sindsdien is chain-of-thought prompting een van de meest gebruikte technieken in prompting geworden.

Hoe werkt chain-of-thought prompting?

Chain-of-thought prompting werkt door het taalmodel te stimuleren om tussenstappen te genereren in plaats van direct naar een eindantwoord te springen. Bij een standaardprompt krijg je vaak alleen een conclusie. Bij een chain-of-thought prompt zie je ook hoe het model tot die conclusie komt.

Dat verschil is vergelijkbaar met het verschil tussen iemand die zegt “het antwoord is 42” en iemand die laat zien welke berekening daaraan voorafging. De uitgeschreven redenering geeft je als gebruiker de mogelijkheid om te beoordelen of de logica klopt, en om precies te zien waar het eventueel misgaat.

Er zijn twee gangbare varianten van chain-of-thought prompting. Welke je kiest, hangt af van de complexiteit van je taak en de tijd die je hebt om je prompt voor te bereiden.

Zero-shot chain-of-thought prompting

Zero-shot chain-of-thought prompting is de eenvoudigste variant. Je voegt een korte instructie toe aan je prompt, zoals “Denk hier stap voor stap over na” of “Leg uit hoe je tot je antwoord komt”. Het model krijgt geen voorbeelden, maar alleen de opdracht om zijn redenering te tonen.

Deze variant is snel en praktisch. Je hoeft geen voorbeelden voor te bereiden en kunt het direct toepassen op elke vraag. De resultaten zijn bij eenvoudige redeneertaken al merkbaar beter dan zonder chain-of-thought instructie.

Een voorbeeld. Stel dat je ChatGPT vraagt: “Een projectteam heeft 12 taken. Drie teamleden verdelen de taken gelijk. Daarna komen er 6 taken bij die over twee teamleden worden verdeeld. Hoeveel taken heeft elk teamlid nu?” Zonder chain-of-thought instructie krijg je soms een fout antwoord. Voeg je toe “Reken dit stap voor stap uit”, dan schrijft het model elke stap uit en komt het vrijwel altijd op het juiste antwoord.

Few-shot chain-of-thought prompting

Few-shot chain-of-thought prompting gaat een stap verder. Je geeft het model een of meer voorbeelden waarin je zelf laat zien hoe een redenering eruitziet. Het model volgt vervolgens dat patroon bij de nieuwe vraag.

Deze variant is bijzonder effectief bij taken waar de gewenste redeneerstijl niet vanzelfsprekend is. Denk aan situaties waarin je een specifiek afwegingskader wilt volgen, of waarin de redenering meerdere perspectieven moet meewegen. Door een concreet voorbeeld te tonen, stuur je het model in de juiste richting.

Het nadeel is dat few-shot prompts meer voorbereiding kosten. Je moet zelf een goed voorbeeld formuleren, en de kwaliteit van dat voorbeeld beïnvloedt het resultaat direct. In de praktijk is few-shot chain-of-thought prompting vooral waardevol bij terugkerende taken waar je de investering in een goed voorbeeld kunt terugverdienen.

Chain-of-thought prompting in de praktijk

Chain-of-thought prompting wordt in de meeste artikelen uitgelegd aan de hand van wiskundige rekensommen. Dat is logisch, want het effect is bij rekentaken het duidelijkst meetbaar. Maar de techniek is minstens zo waardevol bij professionele taken die een afweging of analyse vereisen.

Voorbeeld bij een analyse

Chain-of-thought prompting bij een analyse helpt je om de redenering van het model te controleren. Stel dat je een AI-chatbot vraagt om drie leveranciers te vergelijken op basis van prijs, levertijd en kwaliteit. Zonder chain-of-thought instructie krijg je een conclusie (“Leverancier B is de beste keuze”) zonder onderbouwing.

Voeg je toe: “Weeg elke factor apart af en leg uit hoe je tot je aanbeveling komt”, dan zie je precies welke aannames het model maakt. Misschien weegt het prijs zwaarder dan kwaliteit, terwijl dat voor jouw situatie andersom zou moeten. Die zichtbaarheid maakt het verschil tussen blind vertrouwen en bewust beoordelen.

Voorbeeld bij een zakelijke afweging

Chain-of-thought prompting bij een zakelijke afweging dwingt het model om argumenten voor en tegen uit te werken. Stel dat je Claude vraagt of het verstandig is om een nieuw softwarepakket te implementeren voor je team. Een standaardantwoord somt voordelen op en eindigt met “het hangt af van je situatie”.

Met een chain-of-thought instructie als “Loop de voor- en nadelen stap voor stap door, weeg ze tegen elkaar af en kom tot een concrete aanbeveling” krijg je een gestructureerde analyse. Het model benoemt kosten, implementatietijd, leercurve en verwachte productiviteitswinst apart. Dat maakt de output bruikbaar als startpunt voor een echte beslissing, in plaats van een vrijblijvend overzicht.

Wanneer werkt chain-of-thought prompting het beste?

Chain-of-thought prompting levert het meeste op bij taken die meerdere stappen of afwegingen vereisen. Denk aan rekenkundige problemen, logische puzzels, vergelijkingen tussen opties, risicoanalyses en beleidsafwegingen. Het gemeenschappelijke kenmerk is dat het antwoord niet in één stap te bereiken is.

Hoe complexer de taak, hoe groter het verschil met standaard prompting. Bij eenvoudige vragen met een direct antwoord (“Wat is de hoofdstad van Nederland?”) voegt chain-of-thought prompting niets toe. Maar zodra er meerdere variabelen meespelen of een afweging nodig is, merk je dat de kwaliteit van de output stijgt.

Professionals die goede vragen aan AI stellen combineren chain-of-thought prompting vaak met andere technieken. Je kunt het bijvoorbeeld combineren met een rolbeschrijving (“Je bent een financieel analist. Doorloop stap voor stap de volgende data…”) of met een specifiek outputformaat.

Wanneer heeft chain-of-thought prompting geen zin?

Chain-of-thought prompting is geen techniek die je standaard op elke prompt moet toepassen. Bij eenvoudige feitelijke vragen, korte schrijftaken of creatieve opdrachten levert het geen betere resultaten op. Het model maakt het antwoord dan onnodig lang zonder dat de kwaliteit verbetert.

Een concreet voorbeeld: als je vraagt “Schrijf een beknopte e-mail waarin je een vergadering verplaatst naar donderdag”, dan is stap-voor-stap redeneren overbodig. Het model hoeft niet na te denken over tussenliggende stappen, het moet gewoon een tekst genereren.

De vuistregel is: als je het antwoord zelf in één stap kunt formuleren, heeft chain-of-thought prompting weinig zin. Zodra je merkt dat je zelf ook even zou moeten nadenken over de juiste aanpak, is het een goed moment om het model diezelfde denkruimte te geven.

Langere antwoorden zijn ook niet per definitie betere antwoorden. Een model dat uitgebreid redeneert maar op een verkeerd spoor zit, produceert meer tekst zonder meer waarde. De redenering beoordelen blijft jouw verantwoordelijkheid, en dat vereist dat je zelf voldoende kennis hebt van het onderwerp.

Chain-of-thought en reasoning-modellen

Chain-of-thought prompting was oorspronkelijk iets dat je als gebruiker zelf moest activeren via je prompt. Dat is aan het veranderen. Recente reasoning-modellen hebben chain-of-thought redenering standaard ingebouwd in hun architectuur.

OpenAI’s o-serie (o1, o3, o4-mini) is hier het bekendste voorbeeld. Deze modellen zijn getraind om intern een redeneerproces te doorlopen voordat ze een antwoord geven. Je ziet dat in de interface als een “denk”-fase waarin het model zijn eigen logica opbouwt. Je hoeft als gebruiker geen expliciete chain-of-thought instructie meer te geven; het model doet het automatisch.

DeepSeek R1 gaat nog een stap verder. Dit model toont zijn volledige redeneerproces zichtbaar in de output, inclusief momenten waarop het zichzelf corrigeert. Het model herkent soms halverwege een redenering dat het op een verkeerd spoor zit, past zijn aanpak aan en komt alsnog tot een beter antwoord.

Voor professionals is dit een relevante ontwikkeling. Bij reasoning-modellen verschuift de vaardigheid van “de juiste chain-of-thought prompt schrijven” naar “de getoonde redenering kritisch beoordelen”. Je hoeft het model niet meer te vertellen hoe het moet denken, maar je moet wel kunnen inschatten of de getoonde denkstappen kloppen.

Gebruik je een model zonder ingebouwde reasoning, zoals Gemini of een standaard ChatGPT-model (GPT-4o), dan blijft chain-of-thought prompting een waardevolle techniek die je zelf activeert. Het effect verschilt per model, maar het principe is hetzelfde: stap-voor-stap redeneren levert bij complexe taken betere output op.

Beperkingen en valkuilen van chain-of-thought prompting

Chain-of-thought prompting verbetert de output bij complexe taken, maar het is geen garantie voor correcte antwoorden. Er zijn twee valkuilen waar je als professional alert op moet zijn.

Overtuigende maar onjuiste redeneringen

Chain-of-thought prompting kan leiden tot overtuigende maar onjuiste redeneringen. Het model genereert tekst die logisch lijkt, stap voor stap, maar op verkeerde aannames is gebouwd. Een taalmodel herkent patronen in tekst en voorspelt het meest waarschijnlijke volgende woord. Het “controleert” zijn eigen logica niet zoals een mens dat doet.

In de praktijk betekent dit dat je de redenering altijd moet nalopen, vooral bij taken waar fouten consequenties hebben. Een financieel overzicht dat er keurig uit ziet maar op een verkeerde aanname is gebouwd, is gevaarlijker dan een zichtbaar rommelig antwoord. De uitgeschreven stappen geven je de mogelijkheid om fouten te vinden, maar alleen als je ze ook daadwerkelijk leest en beoordeelt.

Langere antwoorden zijn niet altijd betere antwoorden

Chain-of-thought prompting levert langere antwoorden op. Dat is soms precies wat je nodig hebt, maar het kan ook ruis toevoegen. Een model dat zeven stappen uitschrijft waar drie hadden volstaan, maakt het moeilijker om de kern te vinden.

Bij eenvoudige taken kan chain-of-thought prompting de output zelfs verslechteren. Onderzoek van Wei et al. (2022) toonde aan dat bij simpele vragen die maar één stap vereisen, chain-of-thought prompting geen verbetering opleverde en soms tot slechtere resultaten leidde. Gebruik de techniek dus gericht, niet standaard.

Chain-of-thought prompting en kwaliteitscontrole

Chain-of-thought prompting past goed bij een werkwijze waarin je AI-output systematisch controleert voordat je die gebruikt. De uitgeschreven redenering geeft je concrete aanknopingspunten om te beoordelen of het antwoord klopt.

Je kunt de redenering checken op drie niveaus. Kloppen de feiten die het model als uitgangspunt neemt? Zijn de tussenstappen logisch? En volgt de conclusie uit die tussenstappen? Als een van deze drie niet klopt, weet je precies waar het probleem zit en kun je gericht bijsturen.

Wie begrijpt hoe ChatGPT werkt, snapt ook waarom die controle nodig is. Het model genereert tekst op basis van patronen, niet op basis van feitelijke kennis. Een overtuigende redenering is geen bewijs dat de conclusie klopt. Chain-of-thought prompting maakt het makkelijker om dat onderscheid te zien, maar de beoordeling blijft mensenwerk.

In de ChatGPT cursus van LearnLLM leer je hoe je chain-of-thought prompting combineert met vaste controlepunten, zodat je AI-output kunt verantwoorden naar collega’s en opdrachtgevers.

Chain-of-thought prompting is daarmee meer dan een truc voor betere antwoorden. Het is een manier om AI-output controleerbaar te maken, en dat is precies wat professionals nodig hebben die output leveren onder eigen naam. Wil je leren hoe je deze techniek structureel inzet in je werk? De ChatGPT e-learning van LearnLLM behandelt chain-of-thought prompting als onderdeel van een complete werkwijze met herhaalbare workflows en controlepunten.

Deel dit artikel

Gerelateerde artikelen

wat is prompt chaining
Dennis van de Velde

Wat is prompt chaining?

Prompt chaining is een techniek waarbij je een complexe opdracht opsplitst in meerdere kleinere prompts die elkaar opvolgen.

LEES MEER
prompt betekenis
Dennis van de Velde

Wat is een prompt?

Een prompt is de instructie die je aan een AI-tool geeft om een reactie te krijgen. Dat kan

LEES MEER