Wat is een prompt?

prompt betekenis

Een prompt is de instructie die je aan een AI-tool geeft om een reactie te krijgen. Dat kan een vraag zijn, een opdracht, een beschrijving of een combinatie daarvan. Je typt je prompt in het invoerveld van tools zoals ChatGPT, Claude of Gemini, en het model genereert op basis van die invoer een antwoord.

De term komt oorspronkelijk uit de IT, waar een prompt het tekstveld is waarin je commando’s invoert. Bij AI-tools heeft het woord een bredere betekenis gekregen. Een prompt is niet alleen een vraag, maar een complete instructie waarmee je bepaalt wat de AI doet, voor wie, in welke vorm en met welke beperkingen.

Hoe werkt een prompt bij AI-tools zoals ChatGPT?

Een prompt werkt anders dan je misschien verwacht. AI-tools zoals ChatGPT, Claude en Gemini lezen je invoer niet zoals een mens dat doet. Ze herkennen patronen in je tekst en genereren op basis daarvan het meest waarschijnlijke vervolg, woord voor woord.

Dat betekent dat de AI niet nadenkt over je vraag en ook niet “snapt” wat je bedoelt. Het model zoekt in de patronen die het tijdens de training heeft geleerd welke woorden het best passen bij jouw invoer. Hoe specifieker en vollediger je prompt, hoe gerichter die patroonherkenning werkt.

Je kunt het vergelijken met een opdracht aan een nieuwe collega die je vakgebied niet kent. Zonder context en richting levert die collega iets op dat er misschien goed uitziet, maar inhoudelijk niet klopt.

Met de juiste briefing levert diezelfde collega bruikbaar werk af. Bij AI werkt het precies zo: de kwaliteit van het resultaat hangt direct samen met de kwaliteit van je instructie.

Professionals die begrijpen hoe AI werkt, stellen betere prompts. Ze weten dat het model geen kennis heeft, maar patronen herkent. Die kennis voorkomt dat je blind vertrouwt op de output en helpt je om gerichter te sturen.

Wanneer gebruik je een prompt?

Een prompt gebruik je zodra je een AI-tool inzet voor een taak die je anders zelf zou uitvoeren. Dat kan variëren van een eenvoudige vraag tot een complexe opdracht met meerdere stappen en voorwaarden.

In de dagelijkse praktijk van kenniswerkers zijn er tientallen momenten waarop een prompt je werk versnelt. Een concepttekst voor een e-mail, een samenvatting van een lang document of een eerste opzet voor een presentatie.

Maar prompts zijn ook bruikbaar voor minder voor de hand liggende taken. Een controle op logische fouten in een rapport, een brainstorm over invalshoeken voor een project of het herstructureren van ruwe aantekeningen tot een leesbaar verslag.

De prompt is daarbij niet beperkt tot tekst. Tools zoals DALL-E en Midjourney genereren afbeeldingen op basis van een tekstuele beschrijving. Andere tools genereren code, vertalen documenten of analyseren datasets.

Het principe blijft hetzelfde: jij geeft de instructie, de AI levert de output.

Waar het in de praktijk vaak misgaat, is het moment waarop professionals AI inzetten zonder een duidelijke taak. Ze typen een losse vraag en verwachten een compleet antwoord.

Maar een AI-chatbot werkt pas goed als je aangeeft wat je verwacht, voor wie het is en welke kaders er gelden. Vanuit dagelijks professioneel gebruik met AI-tools is dat een van de eerste lessen die je leert.

Waarom maakt de kwaliteit van je prompt zoveel verschil?

De kwaliteit van je prompt bepaalt de kwaliteit van de output. Dat klinkt logisch, maar in de praktijk onderschatten de meeste gebruikers hoeveel invloed hun eigen invoer heeft op het resultaat.

AI-tools vullen alles wat je niet specificeert zelf in. Vraag je om “een tekst over onboarding”, dan kiest het model zelf de doelgroep, de toon, de lengte, de structuur en de invalshoek. Het resultaat is dan generiek, omdat de AI geen andere keuze heeft dan de meest voor de hand liggende patronen te volgen.

Vraag je daarentegen om “een checklist voor de eerste werkweek van nieuwe medewerkers, gericht op een HR-afdeling van een middelgroot accountantskantoor, in een zakelijke maar toegankelijke toon, maximaal 10 punten”, dan heeft het model genoeg richting om iets specifieks en bruikbaars te genereren.

Als de output niet goed is, ligt de oorzaak vrijwel altijd bij de input. Niet bij de AI-tool zelf.

Wie dit principe eenmaal doorheeft, stopt met de tool de schuld geven en begint met het verbeteren van de eigen instructies. Dat is het verschil tussen professionals die wisselende resultaten krijgen en professionals die consistent bruikbare output produceren.

In de ChatGPT cursus van LearnLLM leer je hoe je prompts formuleert die aansluiten bij je eigen werktaken.

De onderdelen van een goede prompt

Een goede prompt bevat meer dan alleen een vraag. De onderdelen van een effectieve prompt zijn onder te verdelen in drie kerncomponenten: context, opdracht en formaat. Samen zorgen ze ervoor dat de AI precies genoeg informatie heeft om gericht te reageren.

Context en achtergrond

Context is het onderdeel van je prompt dat de AI de achtergrond geeft om relevante keuzes te maken. Wie ben je, voor wie is de output bedoeld, in welke situatie werk je en welk doel wil je bereiken?

Zonder context moet de AI raden. En omdat het model altijd iets genereert (het weigert zelden), krijg je een antwoord dat er goed uitziet maar niet aansluit bij jouw situatie. Professionals die dagelijks werken met ChatGPT of andere AI-tools merken dit verschil direct.

Een voorbeeld: “Schrijf een e-mail” levert iets heel anders op dan “Schrijf een e-mail namens een projectmanager aan een opdrachtgever over een vertraging in de planning. De toon is professioneel en oplossingsgericht.” Dezelfde tool, dezelfde mogelijkheden, maar een compleet ander resultaat.

Een duidelijke opdracht

De opdracht is het kernonderdeel van je prompt. Hierin geef je aan wat de AI precies moet doen: schrijven, samenvatten, analyseren, vergelijken, vertalen of iets anders.

Hoe concreter de opdracht, hoe bruikbaarder het resultaat. “Geef tips voor timemanagement” is vaag. “Geef vijf concrete technieken voor timemanagement die een communicatieadviseur direct kan toepassen, met per techniek een voorbeeld uit de dagelijkse werkpraktijk” is specifiek genoeg om iets waardevols op te leveren.

Een veelgemaakte fout is meerdere opdrachten combineren in één prompt. De AI probeert dan alles tegelijk te beantwoorden, waardoor geen enkel onderdeel de diepgang krijgt die je nodig hebt. Splits complexe taken op in afzonderlijke stappen en werk stap voor stap naar het eindresultaat toe.

Formaat en beperkingen

Het formaat dat je in je prompt specificeert, bepaalt hoe de output eruitziet. Wil je een lopende tekst, een opsomming, een tabel, een e-mail of een stapsgewijs plan? Door het formaat te specificeren voorkom je dat de AI een ander format kiest dan je nodig hebt.

Beperkingen zijn minstens zo belangrijk. Geef aan wat je niet wilt: geen opsommingen langer dan vijf punten, geen Engelse termen waar een Nederlands alternatief bestaat, geen tekst langer dan 300 woorden. Deze grenzen helpen de AI om scherper te selecteren uit de mogelijke antwoorden.

Wie meer wil weten over hoe je de opbouw van een prompt stap voor stap optimaliseert, leest het artikel over de anatomie van een effectieve prompt.

Prompt vs. zoekopdracht, wat is het verschil?

Een prompt verschilt fundamenteel van een zoekopdracht, ook al lijken ze op het eerste gezicht op elkaar. Bij een zoekmachine zoals Google typ je een paar woorden en krijg je een lijst met bestaande bronnen. De zoekmachine zoekt pagina’s die overeenkomen met je zoektermen en rankt die op relevantie.

Bij een prompt aan een AI-tool gebeurt iets anders. De AI doorzoekt geen index van bestaande pagina’s. Het model genereert nieuwe tekst op basis van de patronen die het heeft geleerd.

Het resultaat is geen verwijzing naar een bron, maar een eigen formulering die specifiek is afgestemd op jouw invoer.

Dat verklaart ook waarom de standaard Googletechniek (“korte zoektermen, kijken welke resultaten verschijnen”) niet goed werkt bij AI. Een zoekopdracht als “timemanagement tips” levert in Google bruikbare resultaten op. Diezelfde invoer als prompt aan ChatGPT levert een generiek, oppervlakkig antwoord op, omdat de AI geen context heeft om op te sturen.

Wie gewend is om een goede vraag aan AI te stellen, weet dat een prompt veel meer lijkt op een briefing aan een collega dan op een zoekopdracht. Je geeft niet alleen aan wat je zoekt, maar ook waarom, voor wie en in welke vorm.

Veelgemaakte fouten bij het schrijven van prompts

De meest voorkomende fouten bij het schrijven van prompts zijn herkenbaar en vermijdbaar. Ze komen bijna allemaal neer op hetzelfde patroon: te weinig informatie geven aan de AI.

Te vage instructies zijn de grootste boosdoener. “Schrijf iets over marketing” geeft de AI geen houvast. Het model kiest dan de meest generieke interpretatie en levert output op die voor niemand echt bruikbaar is.

Ontbrekende context is een tweede veelvoorkomend probleem. Zonder te weten voor wie de tekst bedoeld is, welke toon je wilt en in welke situatie het wordt gebruikt, maakt de AI keuzes die niet aansluiten bij jouw werk.

Professionals gaan er soms vanuit dat de AI “de rest wel aanvult”. Maar AI vult niet aan, het vult in. En het vult altijd in op de meest waarschijnlijke manier, niet op de manier die jij nodig hebt.

Het verschil is wezenlijk: aanvullen veronderstelt begrip van je intentie, invullen is puur statistische patroonherkenning.

Ook het klakkeloos overnemen van output zonder controle is een fout die professionals duur kan komen te staan. AI-tools klinken altijd overtuigend, ook wanneer de inhoud feitelijk onjuist is.

Wie output onder eigen naam publiceert, moet elke bewering controleren via een betrouwbare bron. Het artikel over veelgemaakte fouten bij het promtten van AI gaat hier dieper op in.

Daarnaast proberen veel gebruikers te veel in één prompt te stoppen. Een prompt die vraagt om een analyse, een samenvatting en een actieplan tegelijk levert op alle drie de onderdelen een minder resultaat op dan drie afzonderlijke, gerichte prompts.

Van losse prompt naar vaste werkwijze

Een enkele goede prompt is een goed begin, maar nog geen werkwijze. De stap van ad hoc prompten naar een herhaalbare aanpak maakt het verschil tussen incidenteel bruikbare output en consistent professioneel resultaat.

Die werkwijze begint met het besef dat prompts geen eenmalige opdrachten zijn, maar bouwstenen in een proces. Je formuleert een kader, genereert een eerste versie, beoordeelt de output, stuurt bij en controleert het eindresultaat. Elke stap in dat proces heeft een eigen prompt en een eigen controlemoment.

Professionals die op deze manier werken, bouwen na verloop van tijd een verzameling op van prompts die goed werken voor hun specifieke taken. Een vast formaat voor klantcommunicatie, een template voor vergadersamenvattingen, een structuur voor rapportages. Dat is geen magie, maar een kwestie van systematisch werken en bijschaven.

De LearnLLM-aanpak is hier specifiek op gebouwd. In vier stappen leer je hoe je AI inzet met vaste prompt chains, herhaalbare workflows en controlepunten die fouten vangen voordat ze verder gaan. Geen losse tips, maar een werkwijze die je kunt verantwoorden.

Wil je hier gestructureerd mee aan de slag? De ChatGPT e-learning van LearnLLM leert je hoe je prompts opbouwt die passen bij jouw werk, inclusief herhaalbare workflows en een eindopdracht op basis van je eigen taken.

Deel dit artikel

Gerelateerde artikelen

wat is prompt chaining
Dennis van de Velde

Wat is prompt chaining?

Prompt chaining is een techniek waarbij je een complexe opdracht opsplitst in meerdere kleinere prompts die elkaar opvolgen.

LEES MEER