NTFR 2024/1444 - KI: bedreiging voor burger en fiscus

NTFR 2024/1444 - KI: bedreiging voor burger en fiscus

pdmRN
prof. dr. mr. R.E.C.M. Niessenexpert counsel bij VDB Advocaten te Waalre en eerder onder meer A-G bij de Hoge Raad en hoogleraar Belastingrecht in Maastricht en Nijmegen
Bijgewerkt tot 18 september 2024

De afgelopen jaren is de belangstelling voor kunstmatige intelligentie1 en de toepassing daarvan sterk toegenomen. De gebruiksmogelijkheden van deze techniek worden door velen aangeprezen, maar door anderen zoal niet verworpen, dan toch gevreesd. De geniale natuur- en sterrenkundige Stephen Hawking heeft erop gewezen dat KI zich veel sneller kan ontwikkelen dan de mens, en hem in de toekomst qua intellect kan voorbijstreven.2 Mocht KI dan oogmerken ontwikkelen die niet sporen met de belangen van de mens, dan ontstaat er een heel gevaarlijke situatie, aldus de geleerde. Preventieve ‘damage control’ is wenselijk onder het motto ‘non dormit, qui custodit’.3 Kortom: laat de ‘zelfdenkende’ techniek niet het roer in handen krijgen!4

Zover is het nog niet. Wel laten de reeds opgedane ervaringen zien dat KI ook nu al onwenselijke gevolgen kan hebben. Kort gezegd: KI kan een bedreiging vormen voor de goedwillende burger, maar kan de kwaadwillende kansen bieden ten nadele van de fiscus.

Algoritmes

Kunstmatige intelligentie berust op een systeem van algoritmes. Een algoritme is in essentie een beslisboom. Aan de basis staan menselijke beslissingen over de stappen die moeten worden ondernomen om de gevraagde antwoorden te vinden. Daarnaast wordt het algoritme gevoed met data die het zelf opspoort, of die worden ingevoerd door de gebruiker. Ten slotte wordt het algoritme aan het werk gezet met computertaal en wiskundige technieken. Het samenstel van al deze handelingen leidt ertoe dat een groot aantal vraagstukken van allerhande aard en maten snel en met wiskundige zekerheid kan worden opgelost.

KI is een stuk gereedschap dat op enorm veel terreinen kan worden toegepast. Die variëren van rakettechnologie tot sociale beveiliging van winkelstraten en uitgaanscentra. KI is vooral uit praktisch oogpunt buitengewoon handig. Een cruciaal probleem is echter dat de meeste mensen niet weten op welke gronden de techniek haar ‘beslissing’ neemt en zich er daarom niet goed tegen kunnen verweren.

De meesten van ons herkennen de ervaring van onmacht wanneer de tv, de telefoon, de auto, enz. stuk is en de technische dienst lang op zich laat wachten. Nu is dat nog niet zo heel erg, maar het is wel erg wanneer iemand keer op keer zijn kinderopvangtoeslag moet terugbetalen, wanneer de bank plots geen krediet meer wil geven, of wanneer jij om de haverklap door de politie wordt gevraagd naar je papieren en de buurman niet. Ook zonder werkelijk zelfdenkende ‘artificial intelligence’ nemen algoritmes al op allerlei manieren zeggenschap over ons leven.5

Fiscale profilering met Project 1043

De affaire met de kinderopvangtoeslag laat zien hoe het fout kan gaan. De toeslag wordt op voorschotbasis toegekend, met geen of heel weinig toetsing. Dat kan leiden tot fraude, zoals jaren geleden in de zogenoemde ‘Bulgaren’-fraude. Deze gaf aanleiding tot een strakker beleid waarbij in geval van vermoeden van fraude al uitgekeerde bedragen spoorslags werden teruggevorderd en lopende uitkeringen werden gestaakt.

De vraag daarbij was hoe je in een vroeg stadium fraude kunt herkennen. Dat gebeurde met een algoritme dat werd gevoed door middel van ‘vinkjes’ van de ambtenaren van Toeslagen. Ook de ambtenaren van de ‘gewone’ Belastingdienst hanteerden dit systeem voor controledoeleinden. Dit was het zogenoemde ‘Project 1043’. Bij welk gedrag of ander feit precies een vinkje werd geplaatst, is niet helder geworden. Wel is vastgesteld dat ouders met een niet-westerse allochtone achtergrond relatief zeer vaak met fiscale maatregelen werden geconfronteerd.

Toen jaren later helder werd dat hier iets grondig mis was gegaan en de gelaedeerden met terugwerkende kracht vergoeding mochten claimen, moest wel bewijs worden geleverd van de onrechtmatige gedragingen van de overheid. Maar omdat de gronden voor plaatsing op de fraudelijst – en dus voor mogelijk discriminatoire profilering – niet werden geopenbaard, konden de betrokkenen niet bewijzen dat zij daardoor waren benadeeld bij de belastingheffing of met betrekking tot de kinderopvangtoeslag.6 Omkering van de bewijslast vond niet plaats,7 maar werd wel geadviseerd door het College voor de Rechten van de Mens.8

Bewijs; naar een actieve rechter

Deze gang van zaken laat zien dat de ondoorzichtigheid van een algoritme verstrekkende gevolgen kan hebben voor de bewijsvoering in rechte. Voorbeelden van andere bewijsrechtelijke gevolgen van KI geeft B. van der Sloot in een recente publicatie.9

Ik noem er enkele: door manipulatie met audiofragmenten kun je mensen van alles laten zeggen; met video’s kan ‘deepporn’ worden gegenereerd waarin schoolgaande kinderen figureren; en er kunnen video’s en geluidsfragmenten worden gemaakt van niet-bestaande personen. Deze en vele andere AI-producten kunnen zodanig levensecht worden vervaardigd dat ze niet van echt vallen te onderscheiden. In de rechtszaal kunnen dus ‘fake’ verklaringen van iemands ‘ex’ worden overgelegd, en foto’s zijn al helemaal niet meer betrouwbaar, want een brandend bos kan worden gepresenteerd als een schitterend groen natuurgebied.

Van der Sloot wijst erop dat het aan partijen is om de authenticiteit van het door de wederpartij geproduceerde bewijs in twijfel te trekken. En de rechter zal in zijn opleiding bewust moet worden gemaakt van de hier bedoelde problemen en er enige kennis van moeten opdoen. De auteur geeft een hele reeks verstandige aanbevelingen die ik hier niet zal overschrijven. De Rechtstreeks-boekjes zijn bij mijn weten voor eenieder verkrijgbaar. Wel wil ik aanvullend enkele opmerkingen maken langs een iets andere lijn dan die van de auteur.

Uit het strafrecht is het ‘onmiddellijkheidsbeginsel’ bekend. Dat gaat ervan uit dat bewijs in het openbaar moet worden gepresenteerd en dat de rechter zich in de rechtszaal moet kunnen overtuigen van de geldigheid van aangevoerd bewijs. Het lijkt mij een weg waarlangs de geschetste problemen met door AI gemanipuleerd bewijs kunnen worden bestreden. Waarachtig bewijs kan alleen berusten op de oorspronkelijke bron zoals geschriften van de partijen, authentieke aktes en getuigenverklaringen. Het is in beginsel aan de rechter om te bepalen of de aangedragen bewijsmiddelen slagen. Hij zou bij betwisting van voorgelegd materiaal kunnen verlangen dat er getuigenverklaringen in zijn rechtszaal worden afgelegd, dat partijen verklaren dat zij de beweerdelijk van hen afkomstige geschriften daadwerkelijk hebben geschreven, en dat minutieus wordt toegelicht op welke feitelijke gronden een overgelegd rapport berust en hoe die gronden wiskundig zijn bewerkt om tot de slotsom te geraken.

Deze ‘terug naar de bron’- benadering kan veel tijd vergen, maar wellicht brengt zij partijen ertoe om hun stellingen al bij voorbaat te verhelderen en te concretiseren.

Toepassing op fiscale bewijsvoering; zorgen over HT

Zoals elke andere rechter zal ook de belastingrechter zich rekenschap moeten geven van de invloed van algoritmes en KI op als bewijsmiddel voorgelegde producten. Enerzijds kunnen er stukken worden overgelegd die zonder dat de belanghebbende er kennis van heeft zijn gemanipuleerd, anderzijds bestaat ook de mogelijkheid dat de belanghebbende welbewust valse geschriften, foto’s en wat dies meer zij heeft vervaardigd om de fiscus en de rechter om de tuin te leiden.

Deskundigen menen dat er op dit terrein heel veel mogelijk is. Misschien zullen we in de toekomst nog wel complete gefingeerde boekhoudingen te zien krijgen in plaats van wat nu het zwarte kasboekje is. Vanzelfsprekend heeft de Belastingdienst zelf als eerste de taak om deze te ontmaskeren en te ontmantelen.

Hoe dan ook moeten we aannemen dat de zorgen over frauduleus opgemaakte bescheiden zullen toenemen. Het lijkt mij denkbaar dat hiermee het op wederzijds vertrouwen gebaseerde systeem van Horizontaal Toezicht (HT) onder druk komt te staan. Wanneer AI mogelijkheden biedt om ‘onzichtbaar’ te frauderen, zullen daaraan bestuur(srechte)lijk consequenties moeten worden verbonden. De vraag rijst dan of HT in de huidige vorm kan worden voortgezet en bijvoorbeeld ook of de twaalfjaarstermijn voor navordering over buitenlandse heffingsgrondslagen niet ook zou moeten gelden voor zeer kunstig verborgen inkomsten en vermogen.

Voorspelling van individueel gedrag

Het OxRec-model inzake recidive

Fiscale toepassing

De AI-verordening

Besluit