Het gevaarlijkste aan AI-output is niet wanneer die er duidelijk naast zit. Het is wanneer de output er professioneel uitziet, vloeiend leest en precies klinkt als het antwoord dat je zocht. Want op dat moment verdwijnt de neiging om te controleren. En precies daar zit het risico: een AI-model heeft geen onafhankelijke toegang tot de werkelijkheid. Het kan niet buiten zijn eigen patronen treden om vast te stellen of wat het genereert ook klopt.
Roland Bieleveldt
Vraag een AI-model om een samenvatting van een jaarverslag en je krijgt een helder gestructureerde tekst, met kopjes, kernpunten en een afgewogen conclusie. Vraag om een analyse van klantfeedback en het resultaat leest alsof een analist er een ochtend aan heeft besteed. De taal is correct, de structuur is logisch, de toon is professioneel.
Dat is precies het probleem.
AI-output komt zonder twijfel. Geen vraagtekens, geen voorbehouden, geen “ik ben hier niet zeker van.” Een correct antwoord over de omzet van een beursgenoteerd bedrijf en een volledig verzonnen juridische uitspraak lezen op exact dezelfde manier. Dezelfde vloeiende zinnen, dezelfde overtuigende toon, hetzelfde zelfvertrouwen.
Er zit in de output zelf geen signaal dat onderscheid maakt tussen feit en fictie. Niet omdat het model iets verbergt, maar omdat het model dat onderscheid niet maakt. Het genereert taal. Of die taal overeenkomt met de werkelijkheid, is iets dat buiten het proces valt.
Wat gebeurt er wanneer je een vraag stelt aan een AI-model? Het model heeft tijdens de training miljarden stukken tekst verwerkt: boeken, artikelen, websites, handleidingen, wetenschappelijke papers, forumposts. Uit die teksten heeft het statistische patronen geleerd. Welke woorden volgen op welke andere woorden, in welke volgorde, in welke context.
Wanneer je een vraag stelt, genereert het model de reeks woorden die statistisch het meest waarschijnlijk past bij jouw vraag, gegeven alles wat het heeft geleerd. Vaak is dat een correct antwoord. Veel van de patronen in die miljarden teksten komen overeen met de werkelijkheid. Een model dat geleerd heeft uit duizenden teksten over fotosynthese, genereert waarschijnlijk een correcte uitleg van fotosynthese. Het patroon klopt, en dus klopt het antwoord.
Maar soms kloppen de patronen niet, of zijn ze onvolledig, of is het onderwerp zeldzaam in de trainingsdata. En dan genereert het model alsnog de meest waarschijnlijke voortzetting. Het resultaat ziet er hetzelfde uit. Dezelfde toon, dezelfde structuur, dezelfde vloeiendheid. Het enige verschil is dat de inhoud niet klopt.
Hier zit het inzicht dat het verschil maakt. Er bestaan mechanismen die de betrouwbaarheid van AI-output verhogen. Redeneermodellen evalueren hun eigen tussenstappen. Systemen kunnen worden gekoppeld aan externe bronnen. Post-training leert modellen om wetenschappelijke consensus te prefereren boven onzin. Die mechanismen helpen. Maar ze veranderen niets aan het fundamentele punt: het model kan niet buiten zijn eigen patronen treden om onafhankelijk vast te stellen of iets waar is.
Een concreet voorbeeld maakt dit zichtbaar. Vraag een AI-model naar een bekende historische figuur, Winston Churchill of Marie Curie, en je krijgt een correcte biografie. De trainingsdata bevatten duizenden teksten over deze personen, de patronen zijn sterk en consistent. Vraag datzelfde model naar een relatief onbekende historische figuur, een negentiende-eeuwse provinciale politicus of een vergeten uitvinder, en er gebeurt iets anders. Het model genereert een even geloofwaardige biografie: geboortejaar, studie, carrière, belangrijkste bijdrage. De structuur is identiek. De toon is identiek. Maar de helft van de details is verzonnen. Niet omdat er verkeerde informatie in de trainingsdata zat, maar omdat er te weinig was. Het model vulde de gaten op met patronen van hoe biografieën eruitzien.
Vergelijk het met iemand die fenomenaal belezen is en over elk onderwerp vloeiend kan spreken. Die persoon vertelt je vol overtuiging over een historische gebeurtenis, een wetenschappelijk onderzoek of een juridisch precedent. Soms klopt het. Soms is het een herinnering aan een roman in plaats van aan een feitenboek. En het probleem is: die persoon kan het verschil zelf niet zien. De vloeiendheid is in beide gevallen identiek, omdat de vloeiendheid niet voortkomt uit kennis van de feiten, maar uit kennis van de taal.
Je zou verwachten dat een model op zijn minst minder stellig klinkt wanneer het minder zeker is. Dat er iets van aarzeling doorschemert. Onderzoekers van MIT ontdekten in 2025 het tegenovergestelde. Wanneer modellen onjuiste informatie genereren, gebruiken ze juist stelliger taal dan wanneer ze correcte informatie geven.
Dat is geen toeval. Het patroon is logisch als je het mechanisme kent. In de trainingsdata zijn stellige formuleringen statistisch waarschijnlijker dan voorzichtige formuleringen. Een tekst die zegt “de rechtbank oordeelde dat…” klinkt waarschijnlijker dan “de rechtbank oordeelde mogelijk dat…” Het model optimaliseert voor waarschijnlijkheid, niet voor nauwkeurigheid. En waarschijnlijke taal is zelfverzekerde taal.
Het gevolg is ongemakkelijk. De momenten waarop je het meest op je hoede zou moeten zijn, zijn precies de momenten waarop de output het meest overtuigend klinkt. Het signaal dat je zoekt, de aarzeling die waarschuwt, is er niet. En als het er niet is, verschuift de verantwoordelijkheid voor controle volledig naar de mens die de output leest.
Wie wil begrijpen hoe het mechanisme achter onjuiste AI-output precies werkt en waarom het hallucinatie heet, leest verder bij Wat is een hallucinatie? (pagina 1.4b).
Wie wil weten hoe je AI-output structureel betrouwbaarder maakt door een model te koppelen aan externe kennisbronnen, vindt dat bij Kennislaag en RAG (cluster 4.2).
Wie wil begrijpen hoe je als organisatie toezicht houdt op AI-output, leest verder bij Menselijke sturing en toezicht (cluster 6.2).