Hallucinations zijn een fenomeen waarbij kunstmatige intelligentie, met name large language models (LLM's), informatie genereert die onjuist, verzonnen of niet ondersteund wordt door trainingsdata, maar deze wel presenteert met grote zekerheid. Het is alsof de AI 'liegt' zonder het zelf te weten.
Dit gebeurt omdat AI-modellen geen echt begrip hebben van de werkelijkheid, maar werken op basis van patronen in data. Wanneer een model een vraag krijgt waarop het geen duidelijk antwoord heeft, kan het toch een antwoord 'verzinnen' dat statistisch gezien plausibel klinkt, maar feitelijk incorrect is.
Hoe ontstaan hallucinations?
Er zijn verschillende oorzaken voor hallucinations bij AI-systemen:
- Beperkte of onvolledige trainingsdata: Als het model niet voldoende informatie heeft over een onderwerp, vult het de gaten in met 'logisch klinkende' maar incorrecte informatie
- Overfitting: Het model generaliseert patronen op een manier die niet overeenkomt met de werkelijkheid
- Ambiguïteit in prompts: Onduidelijke of te open vragen kunnen het model verleiden tot speculatie
- Conflicterende informatie: Wanneer trainingsdata tegenstrijdige informatie bevat, kan het model een 'gemiddelde' creëren die feitelijk onjuist is
- Gebrek aan verificatiemechanisme: AI-modellen hebben geen ingebouwde manier om hun eigen output te verifiëren tegen feitelijke bronnen
Types hallucinations
Er zijn verschillende vormen waarin hallucinations zich kunnen manifesteren:
- Factual hallucinations: Verzonnen feiten, data, statistieken of gebeurtenissen
- Source hallucinations: Verwijzingen naar niet-bestaande bronnen, artikelen of studies
- Contextual hallucinations: Informatie die buiten context wordt geplaatst of verkeerd wordt geïnterpreteerd
- Identity hallucinations: Het toekennen van uitspraken of acties aan verkeerde personen of organisaties
Impact op betrouwbaarheid
Hallucinations vormen een significant risico voor organisaties die AI inzetten voor content creatie, klantenservice, of besluitvorming. Ze kunnen leiden tot:
- Reputatieschade door verspreiding van onjuiste informatie
- Juridische problemen bij foutieve advisering
- Verminderd vertrouwen in AI-systemen
- Operationele fouten door verkeerde data-interpretatie
