Over LearnLLM

Onze visie op AI

Large Language Models (LLM’s) zoals ChatGPT worden steeds vaker gebruikt in professioneel werk: teksten schrijven, informatie structureren, analyses ondersteunen. Krachtig — maar fundamenteel anders dan traditionele software.

Verantwoord AI-gebruik begint daarom niet bij “de beste prompt”, maar bij begrip, kaders en vaste controlepunten.

Wat een LLM doet (en wat niet)

Een LLM genereert tekst op basis van waarschijnlijkheid — niet op basis van waarheid.

Een LLM voorspelt welk woord of welke zin waarschijnlijk volgt, gebaseerd op patronen in taaldata. Dat is indrukwekkend, maar het betekent ook dat het model:

  • geen waarheid “begrijpt”
  • geen feiten controleert
  • geen context of risico herkent zoals een professional dat doet
  • niet weet wanneer het fout zit

Daardoor kan output logisch, compleet en overtuigend klinken — en tóch onjuist zijn. Vloeiende taal is geen bewijs van juistheid.

Waarom verantwoordelijkheid altijd menselijk blijft

In professioneel werk geldt één niet-onderhandelbaar uitgangspunt.

AI is nooit verantwoordelijk. Jij wel.

Jouw naam staat onder het document. Jouw organisatie draagt het risico. Jouw reputatie staat op het spel. “Maar ChatGPT zei het” is geen professioneel, juridisch of ethisch argument.

AI kan uitstekend ondersteunen bij denken en uitwerken, maar kan geen besluiten nemen en geen verantwoordelijkheid dragen.

Wanneer AI verantwoord inzetbaar is

AI werkt het best als ondersteuning bij werk dat controleerbaar blijft.

AI is doorgaans geschikt bij taken die:

  • herhaalbaar zijn
  • grotendeels tekstueel zijn
  • controleerbaar blijven (je kunt het verifiëren)
  • geen autonome beslissingen vereisen

Voorbeelden van laag-risico toepassingen (mits je controle standaard maakt):

  • eerste tekstversies
  • samenvattingen (met check op bron en nuance)
  • brainstorms en verkenning
  • structuur aanbrengen in informatie

Wanneer extra terughoudendheid nodig is

Hoe groter de impact van een fout, hoe strenger je moet zijn op verificatie en uitlegbaarheid.

Wees extra voorzichtig bij:

  • juridische of beleidsmatige teksten
  • financiële of medische onderwerpen
  • externe communicatie onder jouw naam of organisatie
  • besluiten met reputatie-, compliance- of strategische impact

Als output niet kan worden geverifieerd, uitgelegd of verdedigd, is het ongeschikt voor professioneel gebruik.

Van prompts naar werkwijze

De meeste problemen ontstaan niet door “slechte prompts”, maar door het ontbreken van proces.

Verantwoord AI-gebruik vraagt om:

  • duidelijke afbakening van use cases
  • vaste workflows in plaats van losse prompts
  • expliciete controlepunten
  • heldere verantwoordelijkheden

AI rendeert pas structureel wanneer het onderdeel is van een doordacht proces, niet van ad-hoc experimenten.

Checks zijn geen optie, maar vereiste

Professioneel AI-gebruik betekent: snelheid mag nooit belangrijker worden dan kwaliteit.

Beoordeel AI-output standaard op:

  • begrip: klopt het doel en de context?
  • logica: is de redenering consistent?
  • verifieerbaarheid: kun je bronnen/feiten checken?
  • risico: wat is de impact als dit fout is?
  • verantwoordelijkheid: wie tekent hiervoor?

Zonder deze checks introduceert AI precies het risico waar het zo verleidelijk in is: overtuigend klinken zonder garantie op juistheid.

Onze uitgangspunten bij LearnLLM

Dit is de basis van onze e-learning en alles wat we publiceren.

  • AI ondersteunt het werk, maar neemt geen beslissingen
  • De professional blijft altijd eindverantwoordelijk
  • Controle is standaard, geen uitzondering
  • Niet alles wat kan, moet
  • Begrip gaat vóór efficiëntie