Onze visie op AI
Hoe LearnLLM kijkt naar verantwoord AI-gebruik
AI-tools zoals ChatGPT zijn krachtig maar fundamenteel anders dan traditionele software. Ze genereren tekst op basis van waarschijnlijkheid, niet op basis van waarheid. Dat verschil bepaalt hoe je ze verantwoord kunt inzetten in professioneel werk.
Op deze pagina leggen we uit hoe een taalmodel werkt, wanneer AI verantwoord inzetbaar is en welke checks professioneel gebruik vereist. Dit is de inhoudelijke basis van alles wat LearnLLM publiceert en onderwijst.
Wat een LLM doet en wat niet
Een LLM genereert tekst op basis van waarschijnlijkheid. Niet op basis van waarheid.
Een Large Language Model voorspelt welk woord of welke zin waarschijnlijk volgt, gebaseerd op patronen in enorme hoeveelheden taaldata. Het model heeft geen toegang tot een database met feiten. Het heeft geen begrip van context zoals een professional dat heeft. Het weet niet wanneer het fout zit.
Dat verklaart een patroon dat iedereen die AI dagelijks gebruikt herkent: output klinkt logisch, compleet en overtuigend en is toch onjuist. Een plausibele statistiek die nergens op gebaseerd is. Een samenvatting die de nuance weglaat. Een conclusie die net iets verder gaat dan de feiten toelaten. Vloeiende taal is geen bewijs van juistheid.
Dit is geen bug die wordt opgelost in de volgende versie. Het is een structureel kenmerk van hoe taalmodellen werken. Begrip van dit mechanisme is de basis van verantwoord gebruik.
Verantwoordelijkheid blijft altijd menselijk
Jouw naam staat onder het document. Jouw organisatie draagt het risico.
AI kan uitstekend ondersteunen bij denken en uitwerken. Het kan geen besluiten nemen en geen verantwoordelijkheid dragen. "ChatGPT zei het" is geen professioneel, juridisch of ethisch argument.
Dit is geen nuance. Het is een uitgangspunt dat bepaalt hoe je AI inzet in je werk. De professional die AI gebruikt is en blijft eindverantwoordelijk voor de output die onder zijn of haar naam naar buiten gaat. Dat geldt voor een e-mail aan een klant, een beleidsadvies, een financieel rapport en een interne presentatie.
Wie dat accepteert als vertrekpunt, kan AI structureel en met vertrouwen inzetten. Wie dat negeert, neemt een risico dat op enig moment zichtbaar wordt.
Wanneer AI verantwoord inzetbaar is
AI werkt het best als ondersteuning bij werk dat controleerbaar blijft.
Niet elke taak stelt dezelfde eisen aan betrouwbaarheid. Een eerste schrijfversie heeft een andere foutmarge dan een juridische overeenkomst. Het onderscheid tussen laag-risico en hoog-risico gebruik is het meest praktische kompas dat je kunt hanteren.
AI is doorgaans geschikt bij taken die herhaalbaar zijn, grotendeels tekstueel zijn, controleerbaar blijven en geen autonome beslissingen vereisen. Denk aan eerste tekstversies, samenvattingen met een check op bron en nuance, brainstorms en verkenning, en het aanbrengen van structuur in informatie.
Wees extra terughoudend bij juridische of beleidsmatige teksten, financiële of medische onderwerpen, externe communicatie onder jouw naam of organisatie en besluiten met reputatie- of compliancerisico. Als output niet kan worden geverifieerd, uitgelegd of verdedigd is het ongeschikt voor professioneel gebruik.
Van losse prompts naar een werkwijze
De meeste problemen ontstaan niet door slechte prompts maar door het ontbreken van een proces.
Een goede prompt helpt. Maar een goede prompt zonder proces levert wisselende resultaten op. De ene keer werkt het goed, de andere keer niet. En je weet niet altijd waarom.
Verantwoord AI-gebruik vraagt om afgebakende use cases zodat je weet waarvoor je AI wel en niet inzet. Het vraagt om vaste workflows in plaats van losse prompts die je elke keer opnieuw bedenkt. Het vraagt om expliciete controlepunten zodat fouten worden onderschept voordat ze verder gaan. En het vraagt om heldere verantwoordelijkheden zodat duidelijk is wie de output beoordeelt en tekent.
AI rendeert pas structureel als het onderdeel is van een doordacht proces. Niet van ad-hoc experimenten waarbij je hoopt dat het goed uitpakt. Dat is precies wat de cursussen van LearnLLM opbouwen.
Vijf checks die professioneel gebruik vereist
Snelheid mag nooit belangrijker worden dan kwaliteit. Checks zijn geen optie maar vereiste.
In de cursussen van LearnLLM leer je output standaard beoordelen op vijf vragen. Niet als bureaucratisch ritueel maar als praktisch kader dat fouten onderschept voordat ze zichtbaar worden.
De eerste vraag is begrip: klopt het doel en de context die je meegaf? Heeft de AI begrepen wat je bedoelde of heeft het een aanname gemaakt? De tweede is logica: is de redenering consistent of zitten er stappen in die je niet kunt volgen? De derde is verifieerbaarheid: kun je de bronnen en feiten in de output zelf controleren? De vierde is risico: wat is de impact als dit fout blijkt te zijn? De vijfde is verantwoordelijkheid: wie beoordeelt deze output en wie tekent ervoor?
Zonder deze checks introduceert AI precies het risico waar het zo verleidelijk in is: overtuigend klinken zonder garantie op juistheid.
De uitgangspunten van LearnLLM
Dit is de inhoudelijke basis van onze cursussen en alles wat we publiceren.
Achter elke cursus en elk artikel van LearnLLM zitten vijf uitgangspunten die niet onderhandelbaar zijn.
AI ondersteunt het werk maar neemt geen beslissingen. De professional blijft altijd eindverantwoordelijk. Controle is standaard, geen uitzondering die je inbouwt als je er tijd voor hebt. Niet alles wat technisch kan, moet ook worden ingezet. Begrip gaat altijd vóór efficiëntie.
Die laatste is de meest wezenlijke. Wie AI inzet zonder te begrijpen hoe het werkt, wat het niet kan en waar het fout gaat, werkt sneller maar niet beter. LearnLLM is gebouwd op de overtuiging dat begrip de enige duurzame basis is voor professioneel AI-gebruik.