Waarom en hoe wijs je een rol toe in een prompt?

Rol toewijzen AI prompt

Rollen toewijzen in een prompt betekent dat je het AI-model vooraf vertelt vanuit welke expertise het moet antwoorden. Je bouwt het verschil tussen een algemeen antwoord en een antwoord dat aansluit op je vakgebied dus al in de eerste regel van je prompt in.

Een rol is geen goocheltruc. Het is een manier om de output van een taalmodel te sturen door context te geven die het model anders zelf moet invullen, vaak met een gemiddeld resultaat tot gevolg. De rest van dit stuk gaat over waarom rollen toewijzen werkt, wanneer je het inzet en hoe je het concreet doet zonder in clichés te vervallen.

Wat houdt rollen toewijzen in een prompt in?

Rollen toewijzen is de instructie waarmee je een AI-model een specifieke professionele context meegeeft voordat je je vraag stelt. In plaats van “schrijf een tekst over flexibel werken” geef je iets als “je bent HR-adviseur voor een organisatie van 200 medewerkers en je adviseert het MT over flexibel werken”. De vraag verandert dan niet, maar het kader waarbinnen het model antwoordt wel.

Een rol is in feite een vorm van context. Een prompt bestaat uit instructie, context, voorbeelden en eventueel een gewenst formaat. De rol valt onder de context: het bakent af welk taalgebruik, welk perspectief en welke afwegingen passend zijn bij het antwoord. Je kunt het zien als een lens waardoor het model naar je vraag kijkt: dezelfde vraag levert door een andere lens een ander antwoord op.

Wat een rol niet doet, is nieuwe kennis aan het model toevoegen. Het model verzint geen nieuwe data omdat je er “ervaren consultant” voor zet. Wat het wel doet, is de antwoordruimte versmallen tot teksten die in de trainingsdata door of voor dat type professional zijn geschreven. Dat scheelt zichtbaar in toon, woordkeuze en de details die het model meeneemt.

Waarom werkt rollen toewijzen in de praktijk?

Rollen toewijzen werkt omdat taalmodellen patronen reproduceren uit de teksten waarop ze getraind zijn. Hoe specifieker je de context maakt, hoe smaller de set patronen waaruit het model put. Een algemene vraag levert een algemeen antwoord op, simpelweg omdat dat de gemiddelde uitkomst is van alle teksten die op die vraag passen.

In mijn werk met de Claude API zie ik dit terug op het moment dat een systeemprompt zonder rolaanduiding wordt vergeleken met dezelfde prompt mét rol. Bij Claude valt op dat het model zich strikt aan de toegewezen rol houdt, ook bij langere conversaties. Bij ChatGPT zag ik in de periode dat ik daar custom GPT’s voor SEO-werk bouwde dat de rol vaker langzaam vervaagde naarmate het gesprek vorderde, waarna het model terugviel op een neutralere toon.

Voor wie de techniek inhoudelijk wil begrijpen helpt het om te lezen hoe ChatGPT en vergelijkbare modellen onder de motorkap werken. Dat verklaart waarom een rol invloed heeft op de output zonder dat het model “begrijpt” wat een rol is.

Wanneer heeft rollen toewijzen effect?

Een rol toewijzen heeft het meeste effect bij taken waar perspectief, toon of afweging belangrijker is dan een feitelijk antwoord. Adviezen schrijven, teksten herschrijven voor een specifieke doelgroep, het beoordelen van een aanpak, of het opstellen van een document dat op een professional zou moeten lijken zijn typische gevallen waar een rol verschil maakt.

Bij feitelijke vragen voegt een rol weinig toe. De vraag in welk jaar de Vrede van Westfalen werd gesloten levert hetzelfde antwoord op met of zonder rol als “ervaren historicus” ervoor. Sterker, een rol kan dan zelfs ruis toevoegen omdat het model meer omhaal van woorden gebruikt om in karakter te blijven.

Een rol toewijzen heeft ook minder zin bij kort, ad-hoc gebruik. Voor een eenmalige vraag van twee regels weegt de tijd om de rol uit te schrijven niet op tegen het effect. Het rendement zit in herhaalbaar werk, waar je dezelfde rol meermaals inzet voor hetzelfde type taak. Dan wordt de rol onderdeel van een vaste werkwijze.

Hoe wijs je rollen toe in een prompt?

Bij het toewijzen van rollen in een prompt zijn vier elementen bepalend voor het effect: de functie, het ervaringsniveau, de context van de organisatie of doelgroep, en de denkwijze die je verwacht. Hoe meer van die vier je expliciet maakt, hoe minder ruimte het model heeft om in algemeenheden te vervallen.

Maak de functie specifiek

Bij rollen toewijzen ligt de eerste winst bij specificiteit van de functie. “Marketeer” is te breed. “Contentmarketeer voor een B2B SaaS-bedrijf” geeft het model meteen een context waarin de vraag beantwoord moet worden. Hetzelfde geldt voor “jurist” versus “arbeidsrechtadvocaat met focus op het MKB”, of “consultant” versus “implementatieconsultant voor ERP-trajecten in de zorg”.

Specificiteit is geen detailfetisjisme. Elk woord dat je toevoegt aan de rol stuurt de output. Tegelijk geldt: voeg geen elementen toe die niet relevant zijn voor de taak. Een rol is een werkmiddel, geen biografie.

Geef het ervaringsniveau mee

Het ervaringsniveau in een rol stuurt de afwegingen die het model maakt. “Junior” en “senior” leveren verschillende keuzes op: een junior maakt vaker stappenplannen expliciet, een senior gaat eerder uit van bekende kaders en focust op uitzonderingen of risico’s.

Voor de meeste professionele toepassingen werkt een vorm van “ervaren” of “senior” beter dan geen vermelding, omdat de baseline van het model anders neigt naar uitleg op beginnersniveau. Wil je het juist toegankelijk hebben, dan kies je bewust voor een rol die richting beginner of generalist beweegt.

Een concrete tip uit eigen werk: een ervaringsniveau van vijftien tot twintig jaar levert in mijn ervaring de scherpste antwoorden op. Een formulering als “neem de rol aan van een ervaren senior SEO-specialist met 15+ jaar werkervaring” werkt beter dan “expert” of “doorgewinterde specialist” zonder cijfer. De jaren maken het concreet, en het model gewicht in zijn antwoord het type afwegingen dat bij dat ervaringsniveau past.

Voorbeelden van rollen die in werkcontext werken

Goede voorbeelden van rollen toewijzen komen uit echte taken, niet uit een algemene lijst van “expert-rollen”. Hieronder drie scenario’s met de bijbehorende rolconstructie en een korte toelichting waarom het werkt.

Voor het herschrijven van een interne notitie naar een externe versie: “Je bent communicatieadviseur bij een gemeente. Je herschrijft beleidsdocumenten naar publiekstoegankelijke teksten voor inwoners op B1-niveau.” Het ervaringsniveau zit impliciet in de functie, het taalniveau is expliciet, en de doelgroep stuurt zinslengte en woordkeuze.

Voor het beoordelen van een vacaturetekst: “Je bent recruiter met tien jaar ervaring in technische functies in de bouwsector. Je beoordeelt vacatureteksten op aantrekkelijkheid voor kandidaten en op het risico dat geschikte kandidaten zichzelf voortijdig diskwalificeren.” Hier stuurt de combinatie van ervaring en risicodenken de feedback richting concrete observaties in plaats van algemene tips.

Voor het analyseren van een contract: “Je bent jurist gespecialiseerd in commerciële contracten in de IT-sector. Je beoordeelt overeenkomsten op risico’s voor de leverancier, niet voor de afnemer.” De expliciete partijkeuze voorkomt het neutrale “beide kanten van het verhaal”-antwoord dat het model anders standaard geeft.

Veelgemaakte fouten bij rollen toewijzen

De meest voorkomende fout bij rollen toewijzen is de rol te algemeen houden. “Je bent een expert” voegt niets toe aan de prompt, omdat alle modellen al neigen naar antwoorden die op enige autoriteit lijken. Specifieker is altijd beter, mits de specificatie relevant is voor de taak.

Een tweede fout is het stapelen van te veel rolelementen. Drie zinnen rol gevolgd door een vraag van één regel is uit balans. Het model krijgt dan veel context over de persoon en weinig over de taak, met als gevolg dat de output wel in karakter is maar de vraag matig beantwoordt.

Een derde fout is een onrealistisch ervaringsniveau opvoeren. “AI-specialist met 50+ jaar werkervaring” of “SEO-strateeg met dertig jaar ervaring” klinkt indrukwekkend, maar zo lang bestaan die vakgebieden niet. Het model heeft in zijn trainingsdata weinig tot geen tekst van iemand met dat profiel, simpelweg omdat die personen er niet zijn. Het effect is averechts: in plaats van scherper antwoord krijg je generieker antwoord, omdat het model terugvalt op de gemiddelde “expert”-tekst die het wél kent. In mijn werk levert vijftien tot twintig jaar ervaring consistent de scherpste output op, ook bij vakgebieden die ouder zijn dan AI of SEO.

De vierde fout is contradictie tussen rol en taak. Een rol als “snelheidsgerichte operationeel manager” combineren met de vraag om een gedetailleerde, vijfpagina-lange analyse trekt het model twee kanten op. Of de rol verliest, of de gevraagde diepgang. Bij dit soort spanning loont het om de rol te splitsen over twee prompts of om de rol aan te passen aan de daadwerkelijke taak.

De vijfde fout zit in het type rol. Beroemde personen, “gedraag je als Steve Jobs”, of fictieve karakters zijn populair maar leveren in werkcontext zelden bruikbare output op. Het model produceert dan een karikatuur van het publieke beeld, niet een serieuze professionele analyse. Wie rollen wil inzetten als onderdeel van een herhaalbare werkwijze in plaats van een eenmalige truc, vindt in de ChatGPT course van LearnLLM een gestructureerde aanpak waarin rolconstructie, contextopbouw en formaatcontrole als samenhangend geheel worden behandeld.

Rollen toewijzen als onderdeel van een vaste werkwijze

De grootste winst van rollen toewijzen ontstaat wanneer je het niet als losse truc ziet maar als vast onderdeel van een werkwijze. In mijn eigen werk leg ik standaardrollen vast voor terugkerende taken, zodat ik niet elke keer opnieuw uitvind hoe ik een prompt opbouw voor bijvoorbeeld een SERP-analyse of een briefing.

Een vaste rol per taak heeft een tweede voordeel: de output wordt vergelijkbaar tussen runs. Wisselende rollen leveren wisselende toon en wisselende afwegingen op, wat lastig is als je meerdere outputs naast elkaar wilt leggen. Een vaste rol fixeert die variabele, waarna verschillen tussen runs sneller herleidbaar zijn naar de inhoudelijke input.

Voor langere prompts of voor systeemprompts in API-werk is het verstandig om de rol bovenaan te zetten en daarna pas de taak en de context. Die volgorde sluit aan bij hoe modellen instructies wegen: wat eerder staat, weegt zwaarder. Bij prompt chaining, waar je een complexe taak opdeelt in opeenvolgende prompts, kun je de rol meegeven in elke schakel of juist alleen in de eerste schakel laten staan, afhankelijk van of de rol relevant is voor de tussenstappen.

Voor analyses die meerdere stappen redenering vragen, combineer je rollen toewijzen vaak met chain-of-thought prompting. De rol bepaalt het perspectief, de chain-of-thought stuurt de structuur waarin het model zijn antwoord opbouwt.

Wat rollen toewijzen niet oplost

Rollen toewijzen is een sterke techniek, maar het lost geen fundamentele problemen op die buiten de prompt liggen. Een model dat geen actuele kennis heeft, krijgt die niet doordat je er “actuele expert” voor zet. Een model dat hallucineert bij specifieke onderwerpen, hallucineert ook met een rol erbij; het hallucineert dan alleen in andere bewoordingen.

Hetzelfde geldt voor verzonnen bronnen, cijfers en citaten. Een rol als “doorgewinterde onderzoeksjournalist” verlaagt het risico op hallucinaties niet op de manier die je intuïtief zou denken. Sterker, een rol die autoriteit suggereert maakt het model soms juist overtuigender in het presenteren van fouten. De controle moet dus altijd na de prompt komen, niet ervoor.

Voor bedrijfskritische output betekent dit dat rollen toewijzen één laag is in een bredere werkwijze met controlepunten. De rol stuurt de output naar het juiste type antwoord; de controle daarna toetst of de inhoud klopt. Beide stappen zijn nodig, geen van beide is op zichzelf genoeg.

Wie rollen toewijzen structureel wil inzetten in zijn werk, leert in de ChatGPT e-learning van LearnLLM hoe je dit combineert met contextopbouw, formaatcontrole en de controlepunten die nodig zijn om AI-output verantwoord te kunnen gebruiken. De cursus is gebouwd vanuit de werkwijze die bij LearnLLM zelf wordt gebruikt voor content- en SEO-taken, niet vanuit losse promptverzamelingen.

Share this article

Related articles

what is prompt chaining
Dennis van de Velde

What is prompt chaining?

Prompt chaining is a technique where you break down a complex task into several smaller prompts that follow one another.

READ MORE