Kifid waarschuwt: AI verzint wetteksten. Hoe zit dat?
Kifid publiceerde vorige week hun jaarverslag over 2025. Meer dan 7.800 klachten, een stijging van ruim 1.800 ten opzichte van het jaar ervoor. Dat is op zich al opvallend, maar wat me echt opviel was dit: er komen klachtformulieren binnen die door ChatGPT zijn ingevuld, met verwijzingen naar niet-bestaande wetteksten.
Kifid-directeur Eveline Ruinaard noemt het letterlijk in het jaarverslag. Mensen vragen AI om hulp bij het formuleren van hun klacht, en de AI verzint er wetsartikelen bij die niet bestaan.
Waarom doet AI dat?
Taalmodellen zoals ChatGPT zijn getraind om tekst te genereren die er overtuigend uitziet. Ze “begrijpen” geen wetten, ze voorspellen welk woord er waarschijnlijk na het vorige komt. Als je vraagt om een juridische onderbouwing, dan genereert het model iets dat eruitziet als een wetsverwijzing, compleet met artikelnummer en een plausibele omschrijving. Maar het kan net zo goed verzonnen zijn.
In de AI-wereld heet dit hallucinatie. Het model liegt niet bewust, het weet simpelweg niet dat het iets verzint. Voor de gebruiker is dat verschil niet relevant, want het resultaat is hetzelfde: je dient een klacht in met een juridische basis die niet bestaat.
Dit is geen theoretisch probleem
De Kifid-cijfers laten zien dat het nu al op schaal gebeurt. Schadeverzekeringen zijn het grootste klachtonderwerp (38% van de behandelde klachten in 2025, was 23%). Ruim 1.200 mensen dienden een klacht in zonder die eerst aan hun dienstverlener voor te leggen. Dat klinkt als precies het scenario waarbij iemand ChatGPT vraagt “heb ik een zaak?” en op basis van het antwoord direct een klacht indient.
Ik heb dit probleem van dichtbij gezien. Bij het bouwen van onze adviesmodules gebruiken we ook AI-modellen voor het verwerken van kennis. In een vroeg stadium merkten we dat een model plausibele URL’s en wetsverwijzingen genereerde die niet bestonden, compleet met BWBR-nummers voor wetten.overheid.nl die nergens naartoe leidden. We hebben daar structurele maatregelen voor gebouwd: elke verwijzing wordt gevalideerd voordat die in een advies terechtkomt, en het model mag geen bronnen verzinnen.
Wat kun je hieraan doen?
Als je AI gebruikt voor financiele of juridische vragen, een paar praktische dingen:
- Controleer elke wetsverwijzing. Zoek het artikelnummer op via wetten.overheid.nl. Als het niet bestaat, is het verzonnen.
- Gebruik AI voor formulering, niet voor juridische onderbouwing. Laat ChatGPT je klacht helpen opschrijven, maar baseer je argumenten op informatie van je verzekeraar, de AFM, of het Juridisch Loket.
- Dien eerst een klacht in bij je dienstverlener. Kifid behandelt klachten pas nadat je ze bij je bank of verzekeraar hebt neergelegd. Dat scheelt dubbel werk.
- Overweeg tools die gebouwd zijn met verificatie. Er zijn adviestools die werken met geverifieerde kennisbronnen in plaats van vrije tekstgeneratie. Het verschil: de kennis is vooraf gecontroleerd door domeinexperts, niet ter plekke bedacht door een taalmodel.
De les
AI is een krachtig hulpmiddel voor het formuleren en structureren van informatie. Maar voor juridische en financiele zaken is “klinkt overtuigend” niet hetzelfde als “klopt.” De Kifid-cijfers maken dat concreet: mensen vertrouwen op gegenereerde antwoorden en komen daar pas achter als hun klacht wordt afgewezen.
De oplossing is niet om AI te vermijden, maar om te weten waar de grens ligt tussen hulp bij formuleren en advies waar je op kunt bouwen.