Course Content
Module 1: Why ChatGPT is convincingly lying to you
You will learn how ChatGPT generates output, why that output always looks reliable and how to prevent made-up facts from getting into your work.
0/4
Free ChatGPT course

Bijna iedereen die AI serieus gaat gebruiken, maakt ergens in de eerste maanden dezelfde fout: ze vertrouwen de output omdat die er goed uitziet. Vloeiende taal, zelfverzekerde formuleringen, een logische opbouw. En dan gaat het mis.

Ik weet dit omdat ik het zelf heb meegemaakt. Ik gebruikte ChatGPT voor achtergrondinformatie bij een adviesnotitie. De uitleg klonk precies goed, volledig en overtuigend. Ik controleerde niet grondig genoeg. Pas bij de inhoudelijke review bleek dat één kerncijfer onjuist was: plausibel klinkend, netjes geformuleerd, maar gewoon fout. Mijn naam stond onder het document.

ChatGPT is een groot taalmodel: het voorspelt welk woord het meest waarschijnlijk volgt op de vorige woorden, op basis van patronen uit miljarden teksten. Het model begrijpt niet zoals mensen begrijpen. Het berekent. Dat verschil heeft directe praktische gevolgen: het model kan overtuigend klinken en toch fout zijn.

Stel je een extreem goed getrainde papegaai voor. Die papegaai heeft miljoenen gesprekken gehoord en kan precies het juiste antwoord “napraten” in de juiste toon. Maar de papegaai weet niet of wat hij zegt klopt. Hij weet alleen dat het klinkt zoals iets dat zou kloppen.

💡 Praktijktip: Stel jezelf bij elke ChatGPT-output de vraag: “Zou ik dit geloven als een stagiair het had geschreven?” Zo dwing je jezelf om de inhoud te beoordelen op correctheid, niet op overtuigingskracht.