Antwoord schriftelijke vragen : Antwoord op vragen van het lid Dijk over het bericht 'Belastingdienst blijft wet overtreden met mogelijk discriminerende fraude-algoritmen'
Vragen van het lid Dijk (SP) aan de Minister en Staatssecretaris van Financiën over het bericht «Belastingdienst blijft wet overtreden met mogelijk discriminerende fraude-algoritmen» (ingezonden 15 december 2023).
Antwoord van Staatssecretaris Van Rij (Financiën – Fiscaliteit en Belastingdienst)
(ontvangen 7 februari 2024). Zie ook Aanhangsel Handelingen, vergaderjaar 2023–2024,
nr. 775.
Vraag 1
Waarom is ervoor gekozen om algoritmes die niet voldoen aan de algemene verordening
gegevensbescherming (AVG) nog steeds te gebruiken bij de Belastingdienst, zelfs na
de blootlegging van het toeslagenschandaal? Klopt het dat de risicomodellen OBCF,
ABN en OB Negatief op 20 januari 2021 tijdelijk zijn stopgezet, maar dat er na een
interne discussie over het belang van het gebruik van deze algoritmes deze weer aan
zijn gezet?1
Antwoord 1
Het klopt dat de risicomodellen OBCF, ABN en OB Negatief op 20 januari 2021 tijdelijk
zijn uitgezet, omdat de modellen mogelijk niet voldeden aan de vereisten vanuit de
AVG. De Belastingdienst heeft vervolgens een risico-afweging gemaakt bij het gebruik
van deze modellen, waarin verschillende belangen zijn gewogen. De privacy van de burger
en bedrijven, de dienstverlening aan hen en het toezicht op hen. Die weging is zo
uitgevallen, dat de modellen weer in gebruik zijn genomen en risico’s die zich daarbij
kunnen voordoen geaccepteerd worden. In die weging is ook betrokken op welke punten
niet werd voldaan aan de AVG, namelijk het ontbreken van een gegevensbeschermingseffectbeoordeling
(GEB) en transparantie. Het model OB Negatief wordt voorzien van een GEB en van de
modellen wordt voorzien dat zij in het algoritmeregister van de Belastingdienst worden
opgenomen ter bevordering van de transparantie.
De geautomatiseerde selectietechnieken die worden aangehaald in de Kamerbrief voortgang
wetstraject Wet waarborgen gegevensverwerking Belastingdienst, Toeslagen en Douane2 hebben ook betrekking op ABN en OB Negatief. De vervolgstappen die volgen naar aanleiding
van de analyse naar de grondslagen voor geautomatiseerde analyse van aangiften en
het geautomatiseerd opleggen van aanslagen die hieruit voortkomen zijn dan ook relevant
voor deze modellen.
Vraag 2
Nu dat de risicomodellen OBCF en ABN gewijzigd zijn, voldoen zij nu volledig aan de
AVG? Bent u ook van plan om de risicomodellen te toetsen op discriminatie? Is OB Negatief
ook in gebruik? Zo ja, voldoet deze volledig aan de AVG? Als OB Negatief niet voldoet
aan de AVG, gaat u het gebruik van dit algoritme onmiddellijk stopzetten? Zijn er
andere algoritmes of datasets in gebruik die in strijd zijn met de AVG? Gaat u gebruik
van deze algoritmes en datasets onmiddellijk stopzetten?
Antwoord 2
In het kader van het voldoen aan de AVG wordt een risicoafweging van relevante belangen
gemaakt en vervolgens op managementniveau gekeken of restrisico’s geaccepteerd kunnen
worden. Sinds het op 27 januari 2021 genomen besluit om de modellen weer aan te zetten,
heeft de Belastingdienst aanpassingen doorgevoerd:
– Het model OB Negatief wordt voorzien van een GEB. Het gebruik van dit model zal in
het kader van transparantie binnenkort worden opgenomen in het Algoritmeregister van
de Belastingdienst.
– Het model ABN is door experts op regelniveau beoordeeld en waar nodig aangepast. Dit
model is voorzien van een AVG-beoordeling (een Privacy Risk Assessment).
– Het model OBCF is ook door experts op regelniveau beoordeeld en is naar aanleiding
daarvan aangepast en in gewijzigde vorm per 14 september 2023 in gebruik genomen.
– Voor de modellen ABN en OBCF wordt een herontwerp gemaakt, waarna zij worden opgenomen
in het algoritmeregister van de Belastingdienst.
– Voor OB Negatief, ABN en OBCF is met onderzoek naar de regels van de modellen vastgesteld
dat geen sprake is van directe discriminatie en geen bijzondere persoonsgegevens verwerkt
worden.
In het jaarplan 20243 van de Belastingdienst heb ik uw Kamer meegenomen in de ethiek rondom analytics.
In 2024 bouwt de Belastingdienst voort op de al ingezette sporen rondom ethische aspecten.
Zo implementeert de Belastingdienst de normen van de IAMA (Impact assessment voor
Mensenrechten bij de inzet van Algoritmes), gaat de Belastingdienst verder met bias
en fairnesstoetsing (controleren of de algoritmes niet (onbewust) discrimineren) en
wordt het algoritmeregister gevuld. In dit landelijk overheidsregister4 neemt de Belastingdienst haar hoog risico algoritmen op. Op de eigen website geeft
die Belastingdienst hier ook inzicht in5.
Ook wordt van alle bedrijfsprocessen van de Belastingdienst (waaronder die van de
OB) getoetst of die voldoen aan de vereisten van AVG, BIO en archiefwet. Tot slot
is een waarborgenkader opgesteld om de rechtmatigheid en transparantie van risicoselectie
en algoritmen te garanderen. Het ontwikkelde waarborgenkader selectie-instrumenten,
kan hier ondersteuning aan bieden
Vraag 3
Heeft u niets geleerd van de analyse risicoclassificatiemodel toeslagen van 21 april
2022, waaruit blijkt dat de hoogste risicoscores worden gegeven aan mensen met een
laag inkomen, alleenstaande ouders en mensen met een andere nationaliteit? Vindt u
het acceptabel dat gelijkwaardige data nog steeds gebruikt wordt bij de Belastingdienst?
Dit is toch simpelweg klassenjustitie?6
Antwoord 3
Ik ben het niet eens met de vraagstelling dat er niets is geleerd. Het gebruik van
het Risicoclassificatiemodel Toeslagen is in juli 2020 stopgezet. De Belastingdienst
gaat ontoelaatbaar onderscheid op meerdere wijzen tegen. Dit doet de Belastingdienst
door hier in de ontwikkeling van modellen aandacht aan te besteden, bijvoorbeeld door
het uitsluiten van gevoelige variabelen. Na de ontwikkeling vindt monitoring plaats
op de algoritmes. Indien er een aanwijzing is van indirect ongewenst en ontoelaatbaar
onderscheid worden maatregelen getroffen.
Vraag 4
Worden alle algoritmes en datasets in gebruik bij de Belastingdienst meegenomen in
het onderzoek over vervuilde data naar aanleiding van de motie-Marijnissen c.s.?7
Antwoord 4
De aanpak voor de motie Marijnissen c.s. is opgenomen in mijn brief van 30 mei 20228 en bijbehorende rapportage Herstellen, Verbeteren, Borgen. Voor datasets en algoritmen
van destijds geldt dat processen die mogelijk ongelijk uitwerken zijn geïdentificeerd.
In oktober 2020 is bij medewerkers van de Belastingdienst geïnventariseerd welke lijsten
er bestaan op het gebied van nationaliteit en/of risico- of fraudesignalen. Er zijn
119 lijsten gevonden, waar vervolgonderzoek naar verricht wordt. Ook heeft onderzoek
plaatsgevonden naar 969 applicaties binnen de Belastingdienst op het gebruik van bijzondere
typen persoonsgegevens binnen deze applicaties. Dit onderzoek is afgerond.
Vraag 5
Wat denkt u dat dit soort nieuws doet met het vertrouwen van mensen in de overheid,
wat nu al zo laag is? Heeft u en het kabinet niets geleerd heeft van de eigen fouten
in het toeslagenschandaal?
Antwoord 5
Van de fouten die gemaakt zijn in de toeslagenaffaire is nadrukkelijk geleerd. Het
bewustzijn voor algoritmen met onbedoelde effecten is enorm toegenomen. Daarnaast
worden diverse verbetermaatregelen genomen. Zo toetst de Belastingdienst alle bedrijfsprocessen
aan de vereisten van de AVG, BIO en archiefwet en wordt gewerkt aan de implementatie
van het waarborgenkader selectie-instrumenten. Ook is er een kwaliteitsframework dat
alle afspraken, beschrijvingen, processen, templates, standaarden en richtlijnen omvat
die moeten garanderen dat de kwaliteit van analytische toepassingen kunnen worden
bepaald, beheerst en verbeterd. Daarmee krijgt de juiste werking van deze bedrijfsprocessen
meer aandacht dan tevoren. De Belastingdienst moet structureel laten zien dat wordt
gewerkt aan verbeteringen om de processen op orde te brengen om het vertrouwen van
burgers en ondernemers in de Belastingdienst te herstellen, waarbij ik besef dat dit
vertrouwen niet van de één op de andere dag terug te winnen is.
Vraag 6
Deelt u de mening dat inwoners altijd moeten kunnen zien waar en op welke manier hun
persoonsgegevens en data gebruikt worden door de overheid, en dat als een besluit
over een persoon (deels) wordt genomen door een algoritme, dat die persoon daarover
geïnformeerd moet worden? Zo ja, wat gaat u doen om daarvoor te zorgen?
Antwoord 6
Ja, ik deel de mening dat burgers moeten kunnen zien waar hun persoonsgegevens worden
gebruikt. De Belastingdienst werkt hier op meerdere manieren aan. Van algoritmen wordt
getoetst of uitlegbaar is op welke manier selectie plaatsvindt. Het ontwikkelde waarborgenkader
selectie-instrumenten, kan hier ondersteuning aan bieden.
Ondertekenaars
-
Eerste ondertekenaar
M.L.A. van Rij, staatssecretaris van Financiën
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.