Wat is prompt chaining?

wat is prompt chaining

Prompt chaining is een techniek waarbij je een complexe opdracht opsplitst in meerdere kleinere prompts die elkaar opvolgen. De output van de eerste prompt wordt de input voor de tweede, en zo bouw je stap voor stap naar een eindresultaat. In plaats van alles in één keer te vragen, begeleid je de AI door een proces.

Wie regelmatig met ChatGPT of Claude werkt, herkent het probleem: een uitgebreide prompt met tien instructies levert zelden een resultaat dat op alle punten goed is. Prompt chaining lost dat op door elke stap gerichte aandacht te geven.

Hoe prompt chaining werkt

Prompt chaining begint met het identificeren van de deeltaken binnen je opdracht. Stel dat je een intern adviesrapport wilt schrijven op basis van drie brondocumenten. In plaats van één prompt te sturen met “analyseer deze bronnen, identificeer de belangrijkste inzichten, schrijf een samenvatting en formuleer een advies”, splits je dat op in afzonderlijke stappen.

De eerste prompt richt zich uitsluitend op het analyseren van de bronnen. Je vraagt de AI om de kernpunten per document op te sommen, zonder al te interpreteren of samen te vatten.

De tweede prompt neemt die kernpunten als input en vraagt om patronen en tegenstrijdigheden te identificeren. Wat komt in alle bronnen terug? Waar spreken ze elkaar tegen?

De derde prompt vertaalt die analyse naar een advies voor een specifieke doelgroep, bijvoorbeeld het managementteam. Pas in deze stap geef je instructies over toon, lengte en structuur.

Het principe is bij elke prompt chain hetzelfde: elke stap heeft precies één doel, en de output van de ene stap voedt de volgende. Zo ontstaat een pijplijn waarin het eindresultaat beter is dan wat één enkele prompt zou opleveren.

Er zijn verschillende patronen voor het opbouwen van zo’n keten. Het meest gebruikte patroon is de lineaire keten: elke prompt wordt op volgorde uitgevoerd en bouwt voort op het vorige resultaat. Dit werkt voor taken met een natuurlijke stap-voor-stap progressie, zoals het voorbeeld hierboven.

Een ander patroon is de parallelle keten. Je geeft meerdere prompts tegelijk, elk gericht op een ander aspect van dezelfde taak. Vervolgens combineer je de resultaten in een afsluitende prompt. Dit werkt wanneer je onafhankelijke analyses nodig hebt die je tot één conclusie wilt samenvoegen, bijvoorbeeld een SWOT-analyse waarbij je sterke punten, zwakke punten, kansen en bedreigingen elk apart laat uitwerken.

Een derde patroon is de zelfcorrectieketen. Het model genereert eerst een concept, beoordeelt dat concept vervolgens aan de hand van criteria die je meegeeft, en past het resultaat aan op basis van die beoordeling. Dit patroon is effectief voor schrijftaken waarbij je de kwaliteit iteratief wilt verhogen zonder zelf elke versie handmatig te reviewen.

Waarom prompt chaining betere resultaten oplevert

Prompt chaining verbetert de output omdat het de aandacht van de AI per stap concentreert. Een taalmodel dat tien instructies tegelijk verwerkt, geeft aan sommige meer gewicht dan aan andere. Dat leidt tot output die op drie punten goed is en op zeven punten middelmatig.

Met korte, gerichte prompts voorkom je die verdunning. Elke prompt krijgt de volledige aandacht van het model, waardoor de kwaliteit per stap hoger ligt.

Een tweede voordeel is foutopsporing. Als stap drie van je keten een zwak resultaat oplevert, voer je alleen die stap opnieuw uit. Bij één grote prompt begin je helemaal opnieuw, zonder te weten welk onderdeel het probleem veroorzaakte. Je kunt gericht bijsturen in plaats van alles te herhalen.

Het derde voordeel is dat je de kwaliteit van je prompt per stap kunt verbeteren. Als een bepaalde stap consistent matige output oplevert, pas je alleen die prompt aan. Die gerichte aanpak sluit aan bij het principe dat een goede vraag aan AI specifiek en afgebakend moet zijn.

Prompt chaining versus chain-of-thought prompting

Prompt chaining en chain-of-thought prompting lijken op elkaar, maar werken fundamenteel anders. Het verschil zit in waar het redeneerproces plaatsvindt: verspreid over meerdere prompts, of binnen één enkele prompt.

Bij chain-of-thought prompting vraag je het model om binnen één prompt stap voor stap na te denken. Je voegt een instructie toe als “redeneer stapsgewijs” en het model doorloopt het volledige denkproces in één antwoord. Dit werkt goed bij logische problemen, berekeningen en analyses die een duidelijke redeneerlijn vereisen.

Bij prompt chaining splits je de taak op over meerdere afzonderlijke prompts. Elke prompt is een eigen interactie, en jij beoordeelt het tussenresultaat voordat je de volgende stap inzet. Dit geeft meer grip op het proces, maar kost ook meer tijd. In de praktijk blijkt prompt chaining vooral meerwaarde te hebben bij taken waar de output naar iemand anders gaat, zoals rapporten, offertes of communicatie-uitingen.

De twee technieken sluiten elkaar niet uit. Je kunt binnen een prompt chain bij een specifieke stap ook chain-of-thought gebruiken, bijvoorbeeld wanneer die stap een complexe afweging vereist. Wie goed begrijpt hoe ChatGPT tekst genereert, ziet waarom die combinatie werkt: het model verwerkt elke prompt als een op zichzelf staande opdracht, en chain-of-thought helpt bij stappen die redenering vereisen binnen die opdracht.

Een praktijkvoorbeeld van prompt chaining

Prompt chaining wordt concreet aan de hand van een realistisch voorbeeld. Stel dat je als communicatieadviseur een persbericht moet schrijven over een organisatieverandering. De directie heeft je een interne memo gestuurd met de details.

Prompt 1: “Lees deze interne memo en identificeer de vijf belangrijkste feiten die in het persbericht moeten staan. Geen interpretatie, alleen feiten.”

Prompt 2: “Rangschik deze vijf feiten op relevantie voor een extern publiek. Welk feit hoort in de openingsalinea? Welke zijn ondersteunend?”

Prompt 3: “Schrijf een persbericht van maximaal 300 woorden op basis van deze rangschikking. Gebruik een zakelijke toon. De openingszin bevat het belangrijkste feit. Geen citaten verzinnen.”

Prompt 4: “Controleer dit persbericht op feitelijke consistentie met de oorspronkelijke memo. Zijn er claims die niet direct herleidbaar zijn? Zo ja, markeer ze.”

Elke stap heeft één functie: feiten extraheren, prioriteren, schrijven, verifiëren. De vierde stap is een ingebouwde verificatie die je bij een enkele prompt niet hebt. Je ziet precies wat het model verandert of toevoegt, en je kunt ingrijpen voordat het persbericht de deur uit gaat.

Een tweede voorbeeld uit de praktijk: een projectmanager die een risicoanalyse moet opstellen. De eerste prompt inventariseert alle risico’s op basis van het projectplan. De tweede prompt categoriseert die risico’s op waarschijnlijkheid en impact. De derde prompt formuleert per risico een mitigatiemaatregel. De vierde prompt brengt alles samen in een gestructureerd overzicht dat direct bruikbaar is in een stuurgroepvergadering.

De zelfcorrectieketen werkt anders. Stel dat je een offerte moet schrijven. Prompt 1 genereert een eerste versie op basis van je briefing. Prompt 2 beoordeelt die versie aan de hand van criteria die je meegeeft: “Controleer of de offerte een duidelijke probleemstelling bevat, een concrete aanpak beschrijft en een onderbouwde prijs noemt.” Prompt 3 herschrijft de offerte op basis van die beoordeling. Het model corrigeert zichzelf, waardoor je minder handmatige revisierondes nodig hebt.

Dit soort ketens werkt in Claude, ChatGPT en andere taalmodellen op dezelfde manier. Het gaat niet om welk model je gebruikt, maar om hoe je de taak opdeelt. De structuur van de keten bepaalt de kwaliteit van het resultaat.

Tips voor het opzetten van een prompt chain

Prompt chaining levert de beste resultaten op als je een paar vuistregels aanhoudt bij het opzetten van je keten.

Splits zodra een prompt twee dingen tegelijk probeert. “Analyseer en vat samen” zijn twee bewerkingen die elk een andere instructie vereisen. Maak er twee prompts van, zodat je per stap kunt bijsturen als de output niet klopt.

Beperk je keten tot maximaal vijf stappen. Langere ketens verhogen de kans dat context verloren gaat of dat kleine fouten zich opstapelen. Als je meer dan vijf stappen nodig hebt, is de oorspronkelijke taak waarschijnlijk te breed gedefinieerd.

Wees expliciet over hoe het model de vorige output moet gebruiken. “Gebruik het resultaat van de vorige stap” is te vaag. “Neem de vijf kernpunten uit de vorige stap en rangschik ze op urgentie” geeft het model een duidelijke opdracht. In de ChatGPT cursus van LearnLLM leer je dit soort technieken structureel toepassen in je eigen werk.

Bouw een evaluatiestap in na kritieke tussenstappen. Een vraag als “zijn er feiten weggelaten of toegevoegd ten opzichte van de oorspronkelijke input?” is voldoende om fouten vroeg op te vangen, voordat ze zich door de rest van de keten voortplanten.

Test elke stap eerst individueel voordat je de volledige keten uitvoert. Een prompt die geïsoleerd goed werkt maar in combinatie met de vorige output een onverwacht resultaat geeft, is makkelijker te debuggen als je hem eerst los hebt getest.

Wanneer prompt chaining wel en niet zinvol is

Prompt chaining is niet voor elke taak de juiste aanpak. De techniek is zinvol bij opdrachten die meerdere bewerkingen vereisen of waarbij verschillende typen output nodig zijn. Denk aan taken die onderzoek, analyse, creatie en verificatie combineren in één eindproduct.

Voor eenvoudige taken is prompt chaining overbodig. Een AI-chatbot die je vraagt om een vergadernotitie samen te vatten, heeft geen keten van vier prompts nodig. Eén goed geformuleerde prompt met duidelijke instructies over lengte, toon en structuur volstaat.

Een goede vuistregel: als je de taak kunt beschrijven in één zin zonder het woord “en” te gebruiken, is een enkele prompt waarschijnlijk voldoende. “Vat deze notitie samen” is één taak. “Analyseer dit rapport, identificeer risico’s en schrijf een advies voor de directie” is drie taken die baat hebben bij prompt chaining.

Professionals die net beginnen met het koppelen van prompts maken vaak de fout om te lange ketens te bouwen. Een keten van acht stappen klinkt grondig, maar in de praktijk gaat er na stap vijf context verloren. Begin met ketens van twee of drie stappen en breid uit als je merkt dat de resultaten beter worden.

Een andere veelgemaakte fout is het niet overdragen van voldoende context tussen stappen. Ga er niet vanuit dat het model alles onthoudt. Geef bij elke nieuwe prompt de relevante context mee die het nodig heeft om de taak uit te voeren.

Van losse prompts naar een vaste werkwijze

Prompt chaining dwingt je om vooraf na te denken over de structuur van je opdracht. Welke stappen zijn nodig? In welke volgorde? Waar zit het risico op fouten? Die voorbereiding maakt het verschil tussen ad hoc prompting en een herhaalbare werkwijze.

Een prompt chain die goed werkt voor het schrijven van een adviesrapport, kun je de volgende keer opnieuw gebruiken. Documenteer je ketens en bouw zo een bibliotheek op van werkende workflows. Generatieve AI levert de beste resultaten op wanneer je het proces structureert, niet wanneer je elke keer opnieuw improviseert.

Zo’n bibliotheek hoeft niet ingewikkeld te zijn. Een document met per taaktype de stappen, de prompts en aantekeningen over wat wel en niet werkte is voldoende. Na een paar weken heb je een verzameling ketens die je direct kunt inzetten zonder elke keer opnieuw na te denken over de opbouw.

In de ChatGPT cursus van LearnLLM leer je hoe je prompt chaining combineert met controlepunten die fouten onderscheppen voordat je output verstuurt. Je bouwt werkwijzen op die je keer op keer kunt inzetten, afgestemd op je eigen taken.

Een concreet startpunt: neem een taak die je deze week toch al moet uitvoeren en die je normaal in één prompt zou doen. Splits hem op in drie stappen, voer elke stap apart uit en vergelijk de output. Dat ene experiment maakt het verschil tussen prompt chaining als concept en als werkbare techniek in je eigen werk.

Deel dit artikel

Gerelateerde artikelen

prompt betekenis
Dennis van de Velde

Wat is een prompt?

Een prompt is de instructie die je aan een AI-tool geeft om een reactie te krijgen. Dat kan

LEES MEER