Verslag van een commissiedebat : Verslag van een commissiedebat, gehouden op 28 januari 2025, over Inzet algoritmes en data-ethiek binnen de rijksoverheid
26 643 Informatie- en communicatietechnologie (ICT)
32 761
Verwerking en bescherming persoonsgegevens
Nr. 1283
VERSLAG VAN EEN COMMISSIEDEBAT
Vastgesteld 18 februari 2025
De vaste commissie voor Digitale Zaken en de vaste commissie voor Financiën hebben
op 28 januari 2025 overleg gevoerd met de heer Struycken, Staatssecretaris Rechtsbescherming,
en de heer Szabó, Staatssecretaris Koninkrijksrelaties en Digitalisering, over:
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 9 juli
2024 inzake uitstel toezending reactie op verzoek van het lid Idsinga, gedaan tijdens
de regeling van werkzaamheden van 19 maart 2024, over een lijst te leveren van alle
algoritmen binnen alle departementen die mogelijkerwijs illegaal zijn (Kamerstuk 26 643, nr. 1207);
− de brief van de Staatssecretaris Fiscaliteit en Belastingdienst d.d. 25 oktober 2024
inzake advies Autoriteit Persoonsgegevens over geautomatiseerde selectie Belastingdienst,
Dienst Toeslagen en Douane (Kamerstuk 32 761, nr. 309);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 2 december
2024 inzake resultaten van het ADR-onderzoek over de uitvoering van de motie van het
lid Marijnissen c.s. over een voorstel hoe binnen overheidsinstellingen vervuilde
data worden opgeruimd (Kamerstuk 35 510, nr. 21) (Kamerstuk 26 643, nr. 1247);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 3 december
2024 inzake reactie advies AP inzake geautomatiseerde selectietechnieken (Kamerstuk
32 761, nr. 310).
Van dit overleg brengen de commissies bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de vaste commissie voor Digitale Zaken, Wingelaar
De voorzitter van de vaste commissie voor Financiën, Nijhof-Leeuw
De griffier van de vaste commissie voor Digitale Zaken, Boeve
Voorzitter: Valize
Griffier: Muller
Aanwezig zijn zeven leden der Kamer, te weten: Buijsse, Ergin, Kathmann, Koekkoek,
Six Dijkstra, Valize en Vermeer,
en de heer Struycken, Staatssecretaris Rechtsbescherming, en de heer Szabó, Staatssecretaris
Koninkrijksrelaties en Digitalisering.
Aanvang 17.29 uur.
De voorzitter:
Een hele goede avond allemaal, welkom. Het is vandaag dinsdagavond 28 januari 2025.
Het is 17.30 uur en op de agenda staat een commissiedebat Digitale Zaken over data-ethiek
en de inzet van algoritmes binnen de rijksoverheid. Aan de zijde van de Kamer zijn
verschenen de volgende sprekers, van links naar rechts voor de mensen thuis en van
mij uit van rechts naar links: de heer Six Dijkstra van Nieuw Sociaal Contract, de
heer Ergin van DENK, mevrouw Koekkoek van Volt, de heer Buijsse van de VVD en de heer
Vermeer van de BBB. Ikzelf, uw voorzitter, zal aansluitend ook het woord nemen. Dan
wordt het voorzitterschap even overgedragen aan de heer Six Dijkstra. Aan de rechterzijde
zijn aangeschoven de Staatssecretaris Digitale Zaken, de heer Szabó, en de Staatssecretaris
van Justitie en Veiligheid, de heer Struycken.
Ik heb nog even een kleine huishoudelijke mededeling. Wegens ziekte kan de Staatssecretaris
van Financiën, de heer Van Oostenbruggen, niet bij het debat aanwezig zijn. De Staatssecretaris
Digitale Zaken zal voor zover mogelijk de feitelijke vragen op het terrein van de
Staatssecretaris van Financiën namens hem beantwoorden. Hij zal de Staatssecretaris
van Financiën vragen om de meer inhoudelijke vragen schriftelijk te beantwoorden,
met uw welbevinden. Dan is ook nog aangeschoven mevrouw Kathmann van GroenLinks-Partij
van de Arbeid.
Het belooft een leuk debat te worden. We hebben vijf minuten spreektijd per persoon.
Dat is behoorlijk wat spreektijd, dus doe er uw voordeel mee. Dan wil ik als eerste
het woord geven aan de heer Six Dijkstra, maar ik heb nog één mededeling. We hebben
voor de eerste termijn van de Kamer een aantal interrupties van vier, inclusief de
vervolgvragen. Dan geef ik het woord aan de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Dank, voorzitter. Kent de Staatssecretaris van Justitie de film Minority Report? Het
is een sciencefictionfilm uit 2002 over een politiestaat waarin van tevoren voorspeld
wordt welke mensen een misdaad zullen plegen en deze daarom preventief gearresteerd
worden. Net als elk dystopisch verhaal is deze film bedoeld als waarschuwing, niet
als handleiding. Ik moest niet geheel toevallig aan deze film denken toen ik las over
Preselect Recidive, het algoritme van het Openbaar Ministerie dat de kans inschat
dat een jongere recidiveert nadat hij in aanraking is gekomen met de politie. Maar
waar de drie orakels uit Minority Report tenminste nog accurate voorspellingen deden,
is dit algoritme zeer foutgevoelig, en dat terwijl het zomaar het verschil kan maken
tussen of een jongere naar bureau Halt moet of strafrechtelijk vervolgd wordt en mogelijk
een strafblad krijgt. Bovendien worden betrokkenen niet eens geïnformeerd over het
bestaan van dit algoritme, laat staan over de uitkomst ervan. Is de Staatssecretaris
het met mij eens dat dit rechtsongelijkheid in de hand werkt?
Voorzitter. Ja, de Nederlandse overheid mag wettelijk gezien met behulp van algoritmen
aan risicoselectie doen. Daar is de Autoriteit Persoonsgegevens ook duidelijk over
in haar advies aan de regering, maar dit mag enkel als er passende maatregelen getroffen
worden. Zo niet, dan wordt gewoon de wet overtreden. Ik hoor graag van de Staatssecretaris
van JenV welke door de AP genoemde maatregelen getroffen zijn in het geval van Preselect
Recidive en aanverwante algoritmen. Op welke manier wordt onderzocht of er sprake
is van discriminatie en willekeur bij het gebruik van risicoprofileringsalgoritmen
en hoe periodiek gebeurt dit? Heeft hij een aanpak voor hoe hij discriminatie en willekeur
gaat uitsluiten? Worden er al concrete stappen ondernomen om burgers proactief te
informeren over hun betrokkenheid bij algoritmische risicoselectie? Welke zijn dit
en worden burgers gewezen op hun rechten?
Voorzitter. Het probleem is natuurlijk veel breder dan dit ene algoritme. De regering
geeft aan geen separate inventarisatie van risicoprofileringsalgoritmen te organiseren,
nu vastgesteld is dat deze niet automatisch in strijd zijn met de wet. Dat snap ik,
maar het is niet zo dat alle overige algoritmen automatisch wel wetmatig zijn. Wordt
bijvoorbeeld overheidsbreed aan alle door de AP genoemde maatregelen voldaan, vraag
ik de regering. Ik som ze op. A. Er moeten passende wiskundige en statistische procedures
worden gehanteerd. B. Er moeten technische en organisatorische maatregelen worden
getroffen waarmee het risico op fouten wordt geminimaliseerd en onjuistheden worden
gecorrigeerd. C. Persoonsgegevens moeten zodanig worden bewaard dat rekening wordt
gehouden met de potentiële risico’s voor de belangen en rechten van de betrokkenen
en discriminerende gevolgen worden voorkomen. D. Burgers hebben recht op menselijke
tussenkomst, recht om hun standpunt kenbaar te maken en recht om de beslissing aan
te vechten. Aangezien er geen algemene inventarisatie komt, wil ik wel een overheidsbreed
overzicht van de risicoprofileringsalgoritmen die niet aan deze eisen voldoen en een
tijdspad wanneer dit gerepareerd wordt. Kan het kabinet dit toezeggen?
Voorzitter. Reeds vorig jaar april heeft de regering het lid Palmen de toezegging
gedaan de resultaten van een onderzoek naar het effect van risicoselectie en aselecte
steekproeven op te sturen. Wanneer kan de Kamer deze ontvangen? In het hoofdlijnenakkoord
is bepaald dat er een verplichte wetenschappelijke standaard voor de inzet van algoritmen
en modellen komt. Beide moeten openbaar en navolgbaar zijn. De bijsluiter maakt duidelijk
waarvoor ze wel en waarvoor ze niet bedoeld zijn en gebruikt kunnen worden. Dit is
vorige week nogmaals bekrachtigd met de aangenomen Kamermotie-Omtzigt/Six Dijkstra.
Ik merk nog niet heel veel enthousiasme bij de regering om hiermee aan de slag te
gaan. Ik hoor dan ook graag van de regering hoe en wanneer ze deze ontraden motie
gaat uitvoeren.
Voorzitter. Ik rond af. De Nederlandse overheid heeft een hardnekkig geloof in data
en modellen als oplossing voor alle problemen. Als ooit ergens in dit land iets onvoorspelbaars
gebeurt, dan wordt steevast de schuld gegeven aan het feit dat er te weinig gegevens
over burgers gedeeld mochten worden. De AVG wordt dan vooral gezien als irritant,
en privacy als nice to have in plaats van als grondrecht. Het zelotisme dat koste
wat het kost iedere fraudeur in het vizier moest zijn, heeft in het verleden al te
veel onschuldige mensen diep in de problemen gebracht.
Daarom wil ik tot slot beide Staatssecretarissen vragen welk mensbeeld zij vinden
dat er achter de risicoselectie van de overheid moet zitten. Dit bedoel ik als serieuze
vraag. Zijn mensen meer dan datapunten en de relaties daartussen? Dat over groepen
mensen statistische voorspellingen te doen zijn, lijkt me niet zo controversieel.
Maar geloven de Staatssecretarissen werkelijk dat het toekomstig gedrag van individuen
te vangen is in voorspellende algoritmen? Zo niet, welke gevolgen verbinden zij daar
concreet aan in hun beleid?
Dank u wel.
De voorzitter:
Dank, meneer Six Dijkstra, voor uw inbreng. U heeft een interruptie van de heer Ergin
van DENK.
De heer Ergin (DENK):
Ik hoor een aantal goede punten die collega Six Dijkstra inbrengt. Waar ik in aanloop
naar dit debat ook een beetje mee bezig was, is de vraag of we op dit moment in Nederland
een situatie hebben waarbij er sprake is van goede wetgeving, dus wetgeving die voldoende
waarborgen biedt, en of het slechts een uitvoeringskwestie is. Mijn vraag aan de heer
Six Dijkstra is of hij van mening is dat er op dit moment in Nederland sprake is van
voldoende kwalitatief goede wettelijke borging als het gaat om het toepassen van algoritmen,
al dan niet geautomatiseerd.
De heer Six Dijkstra (NSC):
Ik dank de heer Ergin voor zijn vraag. Ik denk ten dele. In zekere zin legt de AP
hier risicoselectie-algoritmen duidelijk uit en zegt: daar moeten bepaalde voorwaarden
aan gesteld worden. Ik zie nog te weinig, eigenlijk zelden, dat al die voorwaarden
nageleefd worden. Dan hebben we het gewoon over de AVG en een duidelijke uitleg van
de AVG. Wat dat betreft is de AVG best een sterke wet, die best als een goede basis
kan dienen, in elk geval wel als het gaat om risicoselectie. Geheel toevallig ben
ik zelf ook in de voorbereidende fase van een initiatiefwet voor het wettelijk vastleggen
van het publieke standaard voor risicoprofileringsalgoritmen, waarbij het gaat om
een kwalitatieve toets en een kwantitatieve toets. Ik denk dat dat echt een goede
toevoeging kan zijn, opdat je ook overheidsdepartementen er heel duidelijk aan kan
houden dat ze altijd zullen moeten toetsen of iets wel voldoet aan de standaard die
nodig is om bijvoorbeeld discriminatie uit te sluiten. Ik denk dus dat er zeker nog
verbetering mogelijk is.
De voorzitter:
Nog een vervolgvraag van de heer Ergin.
De heer Ergin (DENK):
Jazeker. Aangezien collega Six Dijkstra bezig is met een initiatiefwet, ga ik ervan
uit dat zijn conclusie is dat dit onvoldoende is, dat er meer kan of dat het beter
kan. Ik zat er bijvoorbeeld mee dat er in het SCHUFA-arrest maar ook in het advies
van de AP wordt gezegd: geautomatiseerde selectie mag, mits er sprake is van – wat
was het? – «betekenisvolle menselijke tussenkomst». Ik heb eigenlijk nergens in de
stukken of in de wetgeving, in richtlijnen of in de handreikingen die door de voorgaande
Staatssecretaris zijn opgesteld, kunnen achterhalen wat dat nou precies betekent.
Zou de heer Six Dijkstra mij wijzer kunnen maken? Wat betekent «betekenisvolle menselijke
tussenkomst»? En hoe en door wie kan dat getoetst worden?
De heer Six Dijkstra (NSC):
Daarmee vraagt de heer Ergin mij om een uitleg van de AVG. Dit gaat om artikel 22
van de AVG, over bepaalde voorwaarden waaraan voldaan moet worden. Hij noemt daar
inderdaad eentje van. Er zijn andere zaken. Ik heb er ook al een aantal genoemd: passende
wiskundige en statistische procedures; de manier van bewaren van persoonsgegevens;
het recht om standpunten kenbaar te maken en beslissingen aan te vechten. Betekenisvolle
menselijke tussenkomst betekent dat iets niet volledig geautomatiseerd mag zijn. Het
betekent dus dat als een algoritme wordt toegepast, dit geen duidelijke rechtsgevolgen
mag hebben voor iemand zonder dat er een mens naar gekeken heeft en iemand zich daarop
kan beroepen. Dat is in ieder geval hoe de AP de AVG uitlegt. Die uitleg kan ik in
principe goed volgen.
De voorzitter:
Ik dank de heer Six Dijkstra voor zijn bijdrage. We gaan door naar de heer Ergin van
DENK voor zijn bijdrage.
De heer Ergin (DENK):
Voorzitter, dank u wel. We zagen deze week met DeepSeek dat de technologische ontwikkelingen
elkaar vliegensvlug opvolgen. In de techsector praten ze over een wonder in de AI-wereld,
en we zien steeds meer hoe bepalend AI wordt in het dagelijks leven. AI en algoritmen
zijn natuurlijk niet twee exact dezelfde dingen, maar we kunnen in ieder geval wel
zeggen dat we bij de rijksoverheid, als het gaat om algoritmen, niet kunnen spreken
van een wonder. Kijk bijvoorbeeld naar het openbare Algoritmeregister. Dat werd na
de toeslagenmisdaad geopend. Vorig jaar bleek dat slechts 5% van de systemen in het
register was opgenomen. We zijn een paar maanden verder. Hoeveel procent is dat nu?
In de beantwoording van de schriftelijke vragen die laatst zijn gesteld, geeft de
Staatssecretaris aan dat eind 2025 alle hoogrisicoalgoritmen erin opgenomen zullen
zijn.
Voorzitter. Dat brengt mij bij mijn volgende punt. Is de Staatssecretaris de boel
niet vooruit aan het schuiven? We hebben al vijf jaar een register. Althans, die intentie
was er; het register kwam iets later. We horen al vijf jaar: ja, maar dán gaan we
het regelen. Nu moet de commissie weer wachten op een datum. Kan de Staatssecretaris
bijvoorbeeld aangeven waar we staan in mei of juni? Dan zijn we op de helft van het
jaar en zien we hopelijk vooruitgang. Ik zou graag van de Staatssecretaris horen welk
percentage we dan zouden kunnen verwachten.
Dan kom ik op het punt van geautomatiseerde selectie. In de brief geeft de Staatssecretaris
aan dat er geen wettelijke grondslagen ontbreken voor geautomatiseerde selectie. Ik
zie in het advies van de AP wel een hele grote «maar»: de betekenisvolle menselijke
tussenkomst. Eigenlijk ga ik de Staatssecretaris dezelfde vraag stellen die ik de
heer Six Dijkstra heb gesteld. Wat verstaat de Staatssecretaris hieronder, en wat
moeten mensen in het land hieronder verstaan? We zien bijvoorbeeld in het SCHUFA-arrest
– daar verwijst de landsadvocaat ook naar – dat er ook mét menselijke tussenkomst
heel veel risico’s zijn. Hoe gaan we die risico’s mijden? Kiest het kabinet, door
het AP-advies een-op-een over te nemen, niet voor een ruimere interpretatie dan het
SCHUFA-arrest, terwijl dat een rechterlijke uitspraak is?
Voorzitter. Van échte transparantie kunnen we niet spreken. Hopelijk gaat dat wel
gebeuren, maar er zijn op dit moment in de huidige wetgeving onvoldoende waarborgen
als het gaat om algoritmen. Dat was volgens mij ook de reden dat er in het regeerakkoord
stond dat hier een nieuwe wet voor zou komen. Hoe staat het met het wetsvoorstel?
Waarom kiest het kabinet er nou opeens voor om op basis van het AP-advies, dat eigenlijk
gaat om de meer principiële vraag rondom geautomatiseerde selectie, de lijst met mogelijk
illegale algoritmen niet openbaar te maken? Kunnen we die lijst niet gewoon krijgen?
Ik ga er namelijk van uit dat de Staatssecretaris niks te verbergen heeft.
Voorzitter. Dan mijn punt over Motie#21, waar de ADR inmiddels ook onderzoek naar
heeft gedaan. Ik noem even drie punten uit het ADR-onderzoek, waaruit blijkt dat een
aantal zaken niet goed geregeld zijn als het gaat om datavervuiling en algoritmen.
Bij Buitenlandse Zaken zien we bijvoorbeeld dat er niet is gekeken naar gegevens over
etniciteit en geboorteplaats. Bij Binnenlandse Zaken is er geen toets uitgevoerd naar
volledigheid en juistheid. Bij VWS is non-discriminatie niet eens uitgevraagd. En
bij OCW zijn niet eens alle aan dit ministerie verwante organisaties betrokken geweest.
Daarom vraag ik aan de Staatssecretaris, kijkend naar de onderzoeken van de ADR, of
hij tevreden is met de operatie voor het herstellen van datavervuiling et cetera.
Voorzitter. Dan nog een meer filosofische vraag, misschien ook meer gericht aan de
Staatssecretaris van Justitie en Veiligheid. We zien bij de overheid een trend waarbij
we algoritmen inzetten voor fraudebestrijding. We zetten algoritmen vaak in om mensen
te bestraffen of misstanden op te sporen en we doen dat in mindere mate om mensen
te helpen. Ik ben benieuwd hoe de Staatssecretaris kijkt naar het inzetten van algoritmen
om mensen te helpen in plaats van ze te bestraffen. Wat vindt hij er bijvoorbeeld
van om AI in te zetten om de risico’s van algoritmen beter op te sporen?
Dank u wel, voorzitter.
De voorzitter:
Dank, meneer Ergin. U heeft nog een interruptie van de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Ik wil eigenlijk de vraag die de heer Ergin aan mij stelde ...
De voorzitter:
Een ogenblikje. Meneer Ergin, wilt u de microfoon uitzetten?
De heer Six Dijkstra (NSC):
Heel goed. De vraag die de heer Ergin aan mij stelde, wil ik graag terugkaatsen. De
AP geeft in haar advies aan, als het gaat om het SCHUFA-arrest, dat er geen aanvullende
wetgeving nodig is. Het gaat in principe om de uitleg van de wet en er moeten goede
waarborgen omheen zijn, maar ik merk een beetje aan de vragen die de heer Ergin stelt,
dat hij erop voorsorteert dat er specifiek hiervoor aanvullende wetgeving zou moeten
komen. Ik ben benieuwd hoe hij dat voor zich ziet en wat er dan zou moeten komen wat
er momenteel nog niet is.
De heer Ergin (DENK):
Om te beginnen denk ik dat we voor de toepassing van algoritmen door bijvoorbeeld
de rijksoverheid duidelijke grenzen moeten inbouwen. Mijn fractie heeft eerder geopperd
om geen gebruik meer te maken van gegevens als etniciteit en geboorteplaats. We hebben
een aantal adviezen gezien bij OCW; dat weet ik vanuit mijn andere commissiewerkzaamheden.
Daar is door Algorithm Audit, volgens mij, een onderzoek gedaan naar indirecte discriminatie
bij DUO. In dat rapport staan een aantal heel concrete punten voor het beperken van
de toepassing van algoritmen.
Voorzitter. Ik begrijp de juridische discussie op zich wel. Ik begrijp hoe de AP redeneert
als het gaat om het vraagstuk van geautomatiseerde selectie. Maar hoe kan een burger
nou zien dat hij of zij door een automatisch algoritme is getrokken? Dat is op dit
moment niet aan de orde. De AP heeft eerder bijvoorbeeld geadviseerd om bij iedere
beschikking standaard op te nemen dat er gebruik is gemaakt van een algoritme. Dat
zie ik nog steeds niet gebeuren. Dat zou bijvoorbeeld een concrete maatregel kunnen
zijn. Zo kan ik er een aantal opsommen. Volgens mij zou ik daarmee input geven aan
het initiatiefvoorstel van de heer Six Dijkstra, en dat is op zich prima, maar dan
moeten we er misschien samen aan gaan zitten.
De voorzitter:
U heeft nog een vervolgvraag van de heer Six Dijkstra, die ongetwijfeld gaat verwijzen
naar ... O nee, ik bemoei me er niet mee.
De heer Six Dijkstra (NSC):
De heer Ergin en ik gaan sowieso nog een keer koffiedrinken; dat hoor ik al. De AP
geeft aan dat dat met de huidige uitleg van de AVG al moet. De regering doet dat inderdaad
bijna nooit en daar heb ik ook een probleem mee. Daar hebben mevrouw Kathmann en ik
nog een aangehouden motie over. In principe moet de burger onder de AVG wel weten
wanneer er deels algoritmische besluitvorming over hem plaatsvindt. Op dat punt heb
ik een beetje een aarzeling: moeten we nieuwe wetgeving inbouwen als er nu al heel
veel problemen met de compliance zijn? Wat zijn de gedachten van de heer Ergin daarover?
De heer Ergin (DENK):
Daarbij prefereert mijn fractie bijvoorbeeld een waarborg-tenzijaanpak, dus óf je
waarborgen zijn in orde, óf je mag als overheid geen gebruikmaken van algoritmen.
Je zou zeggen dat dit al zou moeten kunnen op basis van de huidige wet- en regelgeving,
maar het gebeurt niet. Dat betekent dat we hier als Kamer op moeten sturen. Onze rol
daarbij is om, als het op basis van de huidige regelgeving niet kan, het moeilijker
te maken voor deze Staatssecretaris – eigenlijk niet per se voor de Staatssecretaris,
maar voor alle uitvoerende organisaties – om lukraak te kunnen werken met algoritmen
zonder dat er voldoende waarborgen zijn ingebouwd. Volgens DENK moeten we daar nu
stappen in zetten. Dat zou bijvoorbeeld kunnen met het initiatiefvoorstel, maar volgens
mij heeft het kabinet al een wetsvoorstel aangekondigd waarin we dat zouden kunnen
inbouwen. U kunt ervan uitgaan dat we bij alle wetgeving die eraan komt, amendementen
zullen indienen om een grens toe te voegen. Die grens is: óf je hebt alles in orde,
óf er geldt gewoon een keihard verbod om algoritmen toe te passen.
De voorzitter:
Ik kijk even of er verdere interrupties zijn. Die zijn er niet. Ik dank de heer Ergin
voor zijn bijdrage. Het kopje koffie met de heer Six Dijkstra staat. Ik geef het woord
aan mevrouw Koekkoek voor haar inbreng namens de partij Volt.
Mevrouw Koekkoek (Volt):
Dank, voorzitter. De nieuwskoppen liegen niet: «onbetrouwbaar algoritme bestempelt
jongeren als toekomstig crimineel», «roekeloze risicoprofilering: studenten in Nederland
geschaad door discriminerende fraudeaanpak» en «grote zorgen om gezichtsscans door
gemeentes bij aanvraag paspoort en ID-kaart».
In de Kamer wordt de urgentie gevoeld dat we hier iets aan moeten doen. Ik weet dat
dat ook voor het ministerie geldt, maar ik zie dat nog niet terug in de acties van
dit kabinet. In het hoofdlijnenakkoord en in het regeerprogramma wordt gezegd «we
willen transparantie en we willen discriminatie tegengaan», maar ik zie daar nog niet
veel van terug in de praktijk. Dat is problematisch, want ook mij bekropen de «Minority
Report»-vibes van collega Six Dijkstra toen ik las dat een algoritme je kan bestempelen
als toekomstig crimineel. Zo’n wereld moeten we niet willen.
Voorzitter. Sinds Volt in de Kamer zit – dat is inmiddels bijna vier jaar – pleiten
we voor meer transparantie. Of het nu gaat om de lobby, om hoe we in Europa handelen
of om hoe we algoritmes gebruiken, het gaat erom dat je laat zien waarom een beslissing
is genomen en wie daar invloed op had. Dat basisprincipe moeten we ook willen handhaven
in de digitale ruimte. Er ligt al ruim drie jaar een aangenomen motie om het Algoritmeregister
verplicht te stellen voor overheden. Het antwoord daarop van het vorige kabinet was,
en dat is het ook nu weer: we kijken nog even; we wachten de AI-wet af. Er lijkt nog
geen noodzaak te zijn, maar die is er wel. Het resultaat van vier jaar sukkelen is
dat er 600 algoritmes van de overheid geregistreerd zijn, maar dat is slechts 2% van
de algoritmes die direct impact hebben op burgers. Even ter verduidelijking: die 600 algoritmes
zijn mooi, maar het totale aantal algoritmes dat door de overheid wordt gebruikt,
wordt geschat op 16.000. Het gaat dus wat traag, om het vriendelijk te zeggen.
Voorzitter. Wat mij betreft gaan we het prioriteren, want dit debat lijkt soms op
een periodieke uitleg over de herhaling van zetten van het kabinet op dit onderwerp.
Ik gaf vorige week al een voorproefje, dus ik heb hier een aantal vragen die de Staatssecretaris
waarschijnlijk gaat herkennen. Is de Staatssecretaris het met mij eens dat iedereen
die zich in Nederland bevindt, inzage moet kunnen hebben in informatie over de algoritmes
die door de overheid worden gebruikt wanneer zij daardoor worden geraakt? Is de Staatssecretaris
het met mij eens dat het Algoritmeregister daar een essentiële rol in speelt, maar
dat dat register tot nu toe onvoldoende gevuld is? Is de Staatssecretaris het met
mij eens dat we de positie van de burger ten opzichte van de overheid moeten versterken
door het vermelden van algoritmes in het Algoritmeregister voor overheden wettelijk
te verplichten? Tot slot in dit blokje: is de Staatssecretaris het met mij eens dat
wanneer er een overheidsbesluit wordt genomen dat burgers raakt, zij bij dat besluit
informatie moeten ontvangen over of en, zo ja, welke vormen van algoritmes of geautomatiseerde
besluitvorming daarbij hebben plaatsgevonden? Ik vraag de Staatssecretaris ook of
hij bereid is om de voorstellen van het College voor de Rechten van de Mens en de
Open State Foundation over te nemen, want daarvan zijn onlangs twee rapporten verschenen
die duidelijk aangeven dat dit inzicht moet worden gegeven. Als de Staatssecretaris
het daar niet mee eens is, wil ik hem vragen hoe dat zich verhoudt tot de motiveringsplicht
in de herziene versie van de Algemene wet bestuursrecht.
Voorzitter. Deze Kamer en het kabinet delen de ambitie om de relatie tussen de overheid
en de burger te versterken. Dat betekent dat we burgers weerbaarder maken en de overheid
minder datahongerig, want we hebben gezien dat meer data en automatisering niet altijd
leiden tot een betere uitvoering en tot beter beleid. De Minister van Binnenlandse
Zaken gaf in antwoorden aan mij aan dat er sprake kan zijn van institutioneel racisme
in de digitale sfeer en dat dit doorgaans systemen treft die gericht waren of zijn
op selectiebeslissingen en risicoprofilering. Ze gaf ook aan dat de overheid er zich
vaak onbewust van is dat er iets niet klopt in de bouw van een model of dat men te
laat in de gaten heeft wat de onbedoelde gevolgen zijn. Kan de Staatssecretaris aangeven
hoe het gaat met de aanpak hiervan, juist als het gaat om de onbedoelde effecten?
De Minister van Binnenlandse Zaken gaf aan dat hieraan gewerkt wordt, maar ik ben
benieuwd hoe het staat met de voortgang daarvan. Hebben wij voldoende zicht op waar
de risico’s zich bevinden en is het kabinet bereid om, waar mogelijk, de algoritmes
openbaar te maken, zodat er niet alleen interne controle plaatsvindt maar er ook meegekeken
kan worden door wetenschappers en journalisten?
Voorzitter. Ik heb nog een vraag over de financiering van de Autoriteit Persoonsgegevens.
Dit blijkt een heikel punt. We hebben in meerdere debatten van het kabinet te horen
gekregen dat het kabinet van mening is dat er nu voldoende financiële middelen naar
de AP gaan, maar de AP stelt dat dit niet het geval is. Om te voorkomen dat we in
een welles-nietesspel of een welles-nietesgesprek blijven vastzitten, wil ik de Staatssecretaris
vragen of hij, eventueel schriftelijk, uiteen wil zetten wat die voldoende middelen
voor de AP inhouden. Ik wil dat hij daarbij ook concreet ingaat op de vraag waarom
het kabinet die mening heeft. Want anders blijven we in zo’n patstelling zitten, denk
ik.
Voorzitter. Tot slot een uitsmijter, als dat nog kan in de tijd. Ik zou niet van Volt
zijn als ik niet ook een Europese invalshoek zou inbrengen. Mijn partij is van mening
dat alle algoritmes en datasets die met overheidsgeld ontwikkeld zijn, gratis beschikbaar
moeten worden gesteld voor iedereen in de Europese Unie. Ik heb dus nog een laatste
vraag aan de Staatssecretaris: deelt hij deze opvatting? En zo ja, welke inspanningen
worden nu geleverd om dit al te bevorderen?
Dank, voorzitter.
De voorzitter:
Dank voor uw bijdrage, mevrouw Koekkoek. U bent net iets buiten de tijd. Alleen de
vraag was net buiten de tijd. Dat maakt niet uit; hij wordt gewoon meegenomen. Ik
kijk even naar mijn linkerzijde of er nog interrupties zijn. Die zijn er niet. Dan
kunnen we meteen door naar de heer Buijsse van de Volkspartij voor Vrijheid en Democratie
voor zijn inbreng.
De heer Buijsse (VVD):
Dank u wel, voorzitter. Algoritmes zijn, net als ander gereedschap in de digitale
wereld, bedoeld om de dienstverlening van de overheid te ondersteunen en te verbeteren.
Dat is in de basis een goede zaak, want hiermee maken we de overheid klantgerichter
voor onze inwoners en ondernemers, en efficiënter in de bedrijfsvoering.
Maar net als bij ieder voordeel zijn er bij het gebruiken van technieken ook nadelen.
Algoritmes kunnen bijvoorbeeld aan de hand van grootschalige selectiemethoden zodanig
ingesteld worden dat ze discriminerende of bevooroordeelde besluiten nemen. Het toeslagenschandaal
is misschien wel het beste voorbeeld hiervan. Als het dan misgaat bij algoritmes,
is het belangrijk dat er vanuit een transparante instructie teruggezocht kan worden
waar het fout is gegaan. Er zijn voorbeelden genoeg waarin een algoritme door een
gebrek aan transparantie te lang zijn besluiten heeft kunnen nemen, met grote gevolgen
voor mensen. Het is daarnaast ook belangrijk om menselijk handelen in de besluitvormingssystemen
in te bouwen, en niet te afhankelijk te worden van algoritmes.
Voorzitter. Het speerpunt van de VVD voor vandaag is aandacht vragen voor het ontwerpproces
van digitale overheidsdiensten. Om het niet mis te laten gaan met digitale technieken
vindt de VVD het belangrijk dat er nauwgezet gekeken wordt naar het ontwerpproces
van digitale overheidsdiensten. Wij vinden dat diensten ontwikkeld moeten worden vanuit
de behoeften van inwoners en ondernemers, waarbij rekening wordt gehouden met mogelijke
ethische risico’s. Ook ervaringsdeskundigen kunnen enorm van dienst zijn gedurende
ontwerpprocessen. Dit heeft als doel om te komen tot een betrouwbare en voor inwoners
tevredenstellende dienstverlening. Algoritmes kunnen hier net als andere technologieën,
zoals de cloud of AI, bij gebruikt worden.
De VVD maakt zich er zorgen over dat er in de ontwerpprocedures van overheidsdiensten
geen gemeenschappelijke taal bestaat bij overheden, nationaal en lokaal. We zien eilanden
die steeds zelf hun eigen procedures en methoden gebruiken om diensten te ontwerpen
en in te richten. Als het dan fout gaat, worden er pleisters geplakt door een ethische
commissie hier en een strategie daar. Te vaak zien we dat we daarbij afhankelijk zijn
van (dure) consultants van buitenaf. Zijn de ontwerpprincipes voor diensten bij bijvoorbeeld
de Belastingdienst dezelfde als bij het Ministerie van Financiën, het CBR, een waterschap,
de gemeente Amsterdam of bij mijn eigen gemeente, Boekel?
Dezelfde gemeenschappelijke taal spreken is van groot belang om risico’s te beperken.
Alleen vanuit dat startpunt kun je met zekerheid vaststellen dat we uniform, over
alle diensten van de overheden heen, onze inwoners en ondernemers centraal stellen.
De VVD vindt het daarom niet afdoende om in dit debat alleen te spreken over hét algoritme
of dé ethiek. Het gaat wat ons betreft om op de mens gerichte dienstverlening waar
algoritmes of andere technologieën waar ethische risico’s bij komen kijken, zoals
de cloud of AI, deel van uitmaken.
Wie ziet er toe op het gebruik van ontwerpprincipes van digitale overheidsdiensten?
Kan de Staatssecretaris reflecteren op de ontwerpprocessen van diensten waar algoritmes
bij gebruikt worden? Waar gaat het goed, en waar kan het beter? Zijn er al goede ervaringen
opgedaan met het gebruik van die ervaringsdeskundigen? Hierop voortbordurend: kan
gesteld worden dat de informatie die bijgehouden wordt in het Algoritmeregister afdoende
is? Of zijn er verbeterpunten? Kan de Staatssecretaris duiden wat dit betekent voor
de nationale Digitaliseringsstrategie, waar momenteel hard aan wordt gewerkt?
Dank u wel.
De voorzitter:
Dan dank ik de heer Buijsse voor zijn inbreng. Ik kijk even naar de collega’s en dan
zie ik dat er een interruptie is van mevrouw Kathmann.
Mevrouw Kathmann (GroenLinks-PvdA):
Ik heb een vraag aan de heer Buijsse. Ik denk dat we elkaar wel vinden, zeker als
er woorden in de mond genomen worden als «op de mens gerichte dienstverlening», want
dat is eigenlijk waar dit over gaat. Vaak belanden we dan in allemaal digitaal jargon,
waar we allemaal niks meer van snappen. Ik kan het zeer waarderen dat de coalitie
waarvan de VVD onderdeel uitmaakt gewoon in het regeerprogramma heeft opgenomen dat
de overheid transparant moet zijn over algoritmen en dat er ook gewoon in is opgenomen
dat er bezwaar gemaakt moet worden. De heer Six Dijkstra refereerde er net al even
aan: wij willen nogmaals het voorstel doen om ervoor te zorgen dat er in elke brief
die iemand krijgt en waarbij er een risicoselectie is gedaan, niet alleen expliciet
gemaakt wordt dat dit is gebeurd en hoe dit is gebeurd, en dat dit algoritme wordt
genoemd, maar ook dat er gelijk wordt aangegeven waar je meer informatie kunt inwinnen
of bezwaar kunt maken. Kan de VVD dit voorstel steunen?
De heer Buijsse (VVD):
Dank u wel, mevrouw Kathmann. Het is inderdaad goed dat u even aanstipt dat digitale
zaken vaak omgeven zijn met «digitaal jargon», zoals u dat terecht noemt. Ook voor
ons is het de kunst om de taal waarmee wij onze inwoners aanspreken ... Uiteindelijk
gaat het dus om die op de mensgerichte dienstverlening van onze overheid, zeker als
het gaat om digitale dienstverlening. Het is goed om dat te blijven benadrukken. Als
het over de motie gaat: ik ken de motie zoals u die beschrijft niet, maar natuurlijk
ben ik bereid om die te bestuderen en in de basis zie ik geen reden om daar negatief
in te staan. Maar nogmaals, ik kan hier vanaf deze plek op dit moment geen toezeggingen
doen.
De voorzitter:
Dan is er nog een vervolgvraag van mevrouw Kathmann.
Mevrouw Kathmann (GroenLinks-PvdA):
Nu we elkaar toch zo kunnen vinden in de op de mens gerichte dienstverlening, zou
ik ook graag van de VVD willen weten hoe zij staat tegenover het vijfsterrenmodel
voor algoritmen waar veel maatschappelijke organisaties met elkaar aan werken. Wat
ze daarmee eigenlijk willen pogen, is dat we gaan van een black box naar transparante
algoritmes, zoals ook in het regeerprogramma staat. Want op dit moment zijn ze gewoon
niet transparant en ook al hebben we dat register straks wel gevuld – dat is nu niet
zo – dan nog denkt iedereen: oké, leuk dat het gevuld is, maar wat doet het nou precies?
In dat vijfsterrenmodel krijg je één ster voor gepubliceerd, twee voor uitgelegd,
drie voor gecontroleerd, vier voor testbaar en vijf voor open. Zo krijg je een heel
model, dat eigenlijk best makkelijk werkt, dat veel transparanter is en waar mensen
ook veel meer van gaan snappen, zowel de ambtenarij die ermee moet werken als de burger
die er heel veel last van kan hebben. We willen richting het kabinet ook het voorstel
doen om dit vijfsterrenmodel te gaan omarmen, omdat we zien dat het Algoritmeregister
niet voldoende is. Kan de VVD daarin meegaan?
De heer Buijsse (VVD):
Mijn standpunt gaat eigenlijk heel erg over dat we naar ontwerpprocessen moeten voor
die mensgerichte dienstverlening van de overheid. Dat gaat veel verder dan sec het
algoritme. Dus nee, ik ben eigenlijk helemaal geen voorstander van een vijfsterrenmodel
sec om de problematiek van ethiek rondom technologieën die wij binnen de overheid
gebruiken tegemoet te treden. Ik denk dat we het breder moeten trekken. Ik wil daarmee
niet zeggen dat dit vijfsterrenmodel slecht is of zo. Ik zou dat alleen veel breder
willen toepassen op ontwerpprocessen. Dus stel dat je die vijf sterren toepast op
de ontwerpprincipes, zo van: zijn de juiste principes toegepast bij de complexe dienstverlening
van de overheid? Dan vind ik het heel interessant worden. Dus het gaat wat mij betreft
ook breder dan dat. Ik hoor ook graag de reactie van de Staatssecretaris in dezen,
onder andere op het vijfsterrenmodel, maar ik zou ’m bij dezen dus eigenlijk ook graag
breder willen trekken naar het hele ontwerpproces van de dienstverlening.
De voorzitter:
Dan dank ik u voor uw bijdrage. Ik zie verder geen interrupties meer. Ik geef het
woord aan de heer Vermeer namens de BBB.
De heer Vermeer (BBB):
Dank u wel, voorzitter. Vandaag spreken we over het advies van de Autoriteit Persoonsgegevens
en de kabinetsreactie over geautomatiseerde selectie-instrumenten. Voor de toeschouwers
van dit debat die minder bekend zijn met dit soort zaken: dit zijn hulpmiddelen die
worden gebruikt om gegevens te selecteren die vervolgens nog moeten worden gecontroleerd.
Ik ga in mijn betoog in op het proces, de belangen van burgers en op het Algoritmeregister.
De Autoriteit Persoonsgegevens is gevraagd te adviseren over het gebruik van geautomatiseerde
selectie-instrumenten en dan in het bijzonder of het gebruik ervan mag volgens de
Algemene verordening gegevensbescherming, de AVG. Risicomodellen en selectiemodules
zijn voorbeelden van selectie-instrumenten, automatische processen dus, waarbij BBB
altijd waakzaam wil zijn voor de risico’s. BBB vindt dat er hierbij veel oog moet
zijn voor het belang van de vrijheid, de privacy en de veiligheid van onze burgers.
We willen kunnen profiteren van de kansen die geautomatiseerde processen ons bieden,
dus daar liggen wel weer kansen, met name ook voor de overheid. We zien dat die haast
noodzakelijk zijn bij belastingaangiftes en AOW-aanvragen.
Tegelijkertijd moeten we ons bewust zijn van de mogelijke risico’s en gevaren van
oneigenlijk gebruik van alle mogelijkheden. BBB blijft daarom sturen op de juiste
wetgeving en beveiligingsstandaarden om de vrijheid, privacy en veiligheid te waarborgen.
Het is niet voor niets dat de Algemene verordening gegevensbescherming het nemen van
besluiten verbiedt, als deze uitsluitend zijn gebaseerd op een automatisch proces.
Hier kunnen uitzonderingen op gemaakt worden, als goed is gezorgd voor de belangen
van betrokkenen. We zien dat wat ons betreft de beoordeling waar we vandaag over spreken
zorgvuldig gegaan lijkt te zijn, maar dat zal ook in de praktijk moeten blijken.
De Autoriteit Persoonsgegevens zegt dat er geen wetgeving nodig is voor het maken
van geautomatiseerde selecties, als deze pas gevolgen krijgen na menselijke tussenkomst.
Daar werden al wat vragen over gesteld: wat is dat dan? Het kabinet vindt op basis
van deze uitspraak dat het proces in orde is. Daarom heeft het kabinet ook besloten
om af te zien van een inventarisatie van mogelijke illegale algoritmes. Hier heeft
BBB toch nog wat vragen bij. Betekent dit dat het kabinet vindt dat er helemaal geen
illegale algoritmes meer zijn en hoe kan het dat met zekerheid zeggen?
Automatische selecties worden dus als oké gezien, als deze alleen maar worden gebruikt
om te beoordelen of er verdere acties nodig zijn. Zelfs profilering is daarbij toegestaan
zolang die profilering maar geen invloed heeft op het besluit dat de mens neemt, maar
dat is een hele technische discussie. Hierbij de vraag aan de bewindspersonen: hoe
kan dat dan worden vastgesteld en hoe wordt bepaald dat profilering geen invloed heeft
op het uiteindelijke menselijke besluit? Hoe gaan we om met vooroordelen bij menselijke
tussenkomst? Want zo werkt ons brein wel. We zijn heel vaak bang voor allerlei elektronische
berichten en processen, maar vandaag stond in De Telegraaf dat een postbode € 9.000
af haalde van de uit de post geviste creditcard van wielrenner Remco Evenepoel. We
moeten dus ook niet denken dat dit alleen maar speelt in automatische processen en
in digitalisering. Het speelt ook gewoon in het gedrag van mensen, dus de menselijke
tussenkomst is lang niet altijd een garantie voor een goed resultaat.
Wat BBB hierbij goed nieuws vindt, is dat de overheid start met een analyse van selectie-instrumenten
bij uitvoeringsorganisaties. Wij zien ook dat er ruimte is voor verbetering en aanscherping,
zodat we de belangen van burgers, die ik eerder al benoemde, nog beter kunnen beschermen.
Hierbij de vraag of inmiddels al duidelijk is of de Staatssecretaris hierbij een coördinerende
rol krijgt.
Tot slot lezen we dat er zal worden doorgepakt met het Algoritmeregister. Dit ontwikkelt
zich vooralsnog moeizaam; het is hier al genoemd. 2% staat erin. De ambitie is nu
uitgesproken dat aan het einde van dit jaar alle departementen de hoogrisico-AI-systemen
geregistreerd hebben. Mijn vraag is: is de benodigde capaciteit hiervoor aanwezig,
wie bepaalt wat «hoog risico» is en wat zijn de criteria daarvoor? Daarnaast heb ik
de vraag aan de bewindspersonen hoe dit Algoritmeregister zich verhoudt tot de diverse
registers die al door gemeentes gemaakt zijn.
Ik heb nog één kritische noot over dit soort registers. Ik omschrijf een algoritme
maar even heel simpel als een oplossing voor een probleem, beschreven op een wiskundige
manier, waarbij het meestal gaat om zoek- en benaderingsalgoritmen die we al tientallen
jaren gebruiken. Mijn vraag is dan ook: gaat een dergelijk register wel zorgen voor
de broodnodige transparantie? En is het hierbij niet noodzakelijk dat ook de databases
die worden gebruikt in kaart worden gebracht? Immers, als een gegeven niet van je
bekend is, kun je er ook niet op beoordeeld worden. Graag een reactie.
Dank u wel.
De voorzitter:
Dank voor uw bijdrage, die net ietsje buiten de tijd was. Ik heb nog even die vraag
toegelaten. Prima.
De heer Vermeer (BBB):
Bedankt voor de coulance, voorzitter.
De voorzitter:
Ik kijk even naar de zijde van de Kamer of er nog interrupties zijn. Die zijn er niet.
Dan kunnen we direct door naar mevrouw Kathmann, die het woord zal voeren namens de
partij GroenLinks-PvdA.
Mevrouw Kathmann (GroenLinks-PvdA):
Dank, voorzitter. We digitaliseren ons de jan tandjes in dit land, met alle gevolgen
van dien. De automatisering van belangrijke processen kent winnaars en verliezers.
Winnaars zijn er aan de kant van de overheid, waarvoor het lekker efficiënt werken
is, maar de burger verliest vaak. De burger verliest zijn recht om te weten hoe de
overheid werkt en waarom keuzes worden gemaakt. Het algoritmebeleid van de overheid
is een soort knutselwerk van papier en loze beloftes dat instort als je er ook maar
even kritisch naar kijkt. Dat zeg ik misschien een beetje hard, maar dat komt ook
omdat ik de afgelopen tijd serieus schrik van hoe slecht we het op orde hebben. We
staan er een beetje bij en we kijken ernaar. Van de meeste AI-systemen binnen de overheid
hebben we geen idee of ze een risico zijn, en het Algoritmeregister ligt stof te verzamelen.
Slechts 2% van de algoritmes van de overheid staat erin, constateert de Open State
Foundation.
Het vullen van zo’n register is natuurlijk geen doel op zich. Het doel is om een transparante
overheid te zijn, die mensen niet vermorzelt. Je boekje volledig opendoen over algoritmes
is daar één onderdeel van. De vraag is: wat is nou het grote plan van de overheid
om het Algoritmeregister te vullen en meer inzicht te geven? Is dit kabinet bereid
de vrijblijvendheid eraf te halen? Is het kabinet bekend met het vijfsterrenmodel
voor algoritmes, dat door maatschappelijke organisaties wordt voorgesteld? Is het
kabinet bereid om die uitgestoken hand van die maatschappelijke organisaties aan te
nemen om zo’n model breder toe te passen?
Eén manier om openheid af te dwingen is in de directe communicatie met burgers. Het
is een keer klaar met al die besluiten die mensen raken waar een algoritme voor wordt
gebruikt dat niemand kent of begrijpt, op basis van factoren die men niet te zien
krijgt. GroenLinks-Partij van de Arbeid wil dat elke brief die gaat over een besluit
waarbij risicoselectie heeft plaatsgevonden duidelijk vermeldt welke algoritmes zijn
gebruikt en op basis van welke factoren dat is, zoals de thuissituatie, leeftijd of
postcode. Alle mogelijkheden om bezwaar te maken moet je ook in de brief kunnen vinden.
De vragen zijn de volgende. Zijn de bewindspersonen het met me eens dat dit voorstel
helemaal past binnen de ambities van het kabinet? En is het kabinet het met me eens
dat zo’n mate van openheid richting burgers hard nodig is?
De voorzitter:
U heeft een interruptie van de heer Vermeer, BBB.
De heer Vermeer (BBB):
Ik ben net als mevrouw Kathmann ook heel erg voor transparantie, maar hoe moet bijvoorbeeld
een Belastingdienst daarmee omgaan? Mensen die belasting willen ontduiken, wil je
immers geen inzicht geven in hoe je controleert of ze dat wel of niet doen.
Mevrouw Kathmann (GroenLinks-PvdA):
Dan is het dus weer de vraag: is het burgergericht of gaat het om makkelijk werken
door de overheid? Hoeveel lessen hebben we nu al geleerd van mensen die al in de knel
raken? Als je serieus in een regeerakkoord opneemt dat maximale transparantie hierin
gewoon moet – dat schrijf je niet gratuit op – is het ook nog eens zo dat mensen het
recht hebben om bezwaar te maken. Dan kun je echt niks anders doen dan mensen erop
attenderen hoe ze dat bezwaar maken en hun inzicht geven in hoe de selectie is gemaakt.
Je zou misschien nog kunnen nadenken over hoe je communiceert en welk inzicht je geeft,
maar het moet in ieder geval duidelijk zijn voor mensen dat ze eruit zijn gepikt.
Dan kan je misschien nog onderscheid maken in hoe transparant je bent over dat kattenbelletje,
maar vervolgens kan je in die bezwaarprocedure die mensen wel of niet starten toch
die maximale transparantie geven. Zo zou je er nog een beetje mee kunnen spelen. Maar
als je a zegt, kan je niet vervolgens b achterwege laten.
De voorzitter:
Nog een vervolgvraag van de heer Vermeer. Daarna heeft de heer Buijsse ook nog een
vraag.
De heer Vermeer (BBB):
Uiteraard ging het mij ook niet om dat deel van bezwaar maken. Daar hebben we het
zelfs in een eerder debat over gehad, dat ging over de uitwisseling van gegevens tussen
banken. Als je op een zwarte lijst zou komen, zou je daar eerst van op de hoogte gesteld
moeten worden en de mogelijkheid moeten hebben om bezwaar te maken voordat er überhaupt
gecommuniceerd wordt met een andere bank, want anders ben je vogelvrij als burger.
Is het correct dat ik bij mevrouw Kathmann wel enige ruimte voel dat bijvoorbeeld
de Belastingdienst niet een handleiding zou hoeven te publiceren over hoe je tussen
de mazen door zou kunnen glippen?
Mevrouw Kathmann (GroenLinks-PvdA):
Het is goed dat u dat vraagt. Die ruimte is er, maar daar waar het kan, moeten we
wel op zoek naar die maximale transparantie.
De voorzitter:
Dan heeft u nog een interruptie van de heer Buijsse.
De heer Buijsse (VVD):
De nadruk ligt in uw bijdrage, althans tot het moment dat u moest stoppen, op de transparantie.
Zo interpreteer ik het. Dat is één ding van het verhaal, maar ik probeerde in mijn
betoog eigenlijk ook aan te geven dat het gaat om het voorkómen van fouten. En als
het dan fout gaat, is die transparantie uiteraard heel belangrijk. Maar het gaat om
het voorkómen van fouten. Dat zit ’m in het ontwerpproces. Herkent u het beeld dat
ik schetste, namelijk dat er over de verschillende overheden heen geen gemeenschappelijke
taal is, dus nationaal bij de rijksoverheid dan wel decentraal bij waterschappen,
gemeenten en noem maar op? Herkent u dat we eigenlijk naar meer uniformering van die
ontwerpprincipes toe zouden moeten? Hoe reflecteert u daarop?
Mevrouw Kathmann (GroenLinks-PvdA):
Dit is een mooi punt van de heer Buijsse. Ik denk dat het inderdaad daar begint. Je
moet eigenlijk alles by design willen doen, maar je moet ook niet denken dat je er
dan bent. Allebei is dus waar, denk ik. Je moet dus je ontwerpprocessen eenduidiger
en beter inrichten. Dat is één. Maar als je dat hebt gedaan, ben je er nog niet. Dan
zullen namelijk heel veel mensen die algoritmes alsnog ingewikkeld vinden, zowel aan
de ambtelijke kant als gewoon de burger. Je zult dus allebei moeten doen. Maar het
is een goed punt van de heer Buijsse.
De voorzitter:
Ik zie geen verdere interrupties, dus dan kan mevrouw Kathmann haar betoog vervolgen.
Mevrouw Kathmann (GroenLinks-PvdA):
Dan het punt dat de heer Ergin eigenlijk ook heeft gemaakt. Normaal zeg je dan heel
netjes: gezien de tijd ... Maar dat ga ik toch niet doen, want dit is belangrijk.
Het betreft de menselijke tussenkomst.
Het kabinet geeft aan dat je alleen risicoselecties mag doen als daar betekenisvolle
menselijke tussenkomst bij komt kijken. Simpel gezegd: besluiten worden gemaakt door
mensen en niet door machines. Maar in de praktijk gebeurt dit niet. We hebben een
structureel gebrek aan kennis binnen de overheid en in de Kamer over al die algoritmes
en hoe ze werken. GroenLinks-Partij van de Arbeid is bang dat in de dagelijkse praktijk
de uitkomsten van algoritmen te vaak onkritisch worden overgenomen. Ik zou dus heel
graag willen dat mij vandaag, precies zoals de heer Ergin ook vroeg, in hele heldere
taal wordt uitgelegd: wat is nou eigenlijk «betekenisvolle menselijke tussenkomst»?
Hoe ziet het er in de praktijk uit als een algoritme iemand als frauderisico ziet?
En hoe gaat dit kabinet ervoor zorgen dat er bij de hele overheid één duidelijke werkwijze
is voor hoe medewerkers omgaan met algoritmes? Hoe kunnen burgers nou weten of er
wel of niet een mens aan te pas is gekomen?
Menselijke tussenkomst en burgers informeren over algoritmes: die zitten ook in de
Europese AI-wetgeving. Dat is ook mijn laatste punt van zorg. Vanaf 2 februari zijn
er allemaal verplichtingen waar Nederland volgens de AI-verordening aan moet voldoen.
Alle realtimegezichtsherkenning moet bijvoorbeeld worden stopgezet als daar geen wettelijke
grondslag voor is. Toen vorig jaar mijn motie werd aangenomen die vroeg om gezichtsherkenning
te stoppen op plekken waar het volgens de wet niet mag, kreeg ik te horen: joh, dat
komt wel goed, want de AI-verordening gaat alles oplossen; vertrouw ons maar. 2 februari
is volgende week, maar er is nog geen wet. De enige conclusie daarmee is dat we per
direct die systemen moeten stopzetten. Gaat het kabinet dat ook doen? Geef me een
duidelijk ja of nee: voldoet Nederland vanaf volgende week aan de AI-verordening?
Weet het kabinet überhaupt welke AI-systemen en algoritmes onder de AI-verordening
vallen? En kan dit kabinet uitleggen hoe Nederland aan de rest van de verordening
gaat voldoen? Wanneer moeten we welke stappen hebben gezet? En hoe kan ik er als Kamerlid
op vertrouwen dat het lukt?
Dank u wel, voorzitter.
De voorzitter:
Ik dank u voor uw bijdrage. Ik zie nog een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
Even uit persoonlijke interesse, want misschien weet u het. Weet mevrouw Kathmann
hoe het zit met de gezichtsherkenning die wij altijd moeten ondergaan als wij dit
pand binnenkomen? Wat is haar inschatting?
Mevrouw Kathmann (GroenLinks-PvdA):
Ik denk dat één ding bovenaan staat en dat is dat dat voor de veiligheid van onze
directe collega’s een noodzaak is. Dan maakt het even niet uit of we de diepte ingaan.
Als collega’s anders onveilig zijn, moeten we dat doen, vind ik. Maar het pijnpunt
zit erin dat er nog meer toepassingen zijn. Daar doen we het nu ook, maar daar is
geen juridische grondslag voor. Dat is nou juist het probleem. Als we dit willen,
daar waar het moet, zorg dan dat die juridische grondslag er is. En als we het doen
op plekken waarbij de juridische grondslag er niet kan komen of waarbij we het niet
willen, moeten we daarmee stoppen. Nu is het een soort ongebreidelde situatie waarover
we kunnen bakkeleien: wanneer moet het wel en wanneer moet het niet? Maar één ding
staat bovenaan: zorg voor die juridische grondslag. Dat is gewoon ongelofelijk belangrijk.
De voorzitter:
Dan kijk ik nog even naar de zijde van de Kamer om te zien of er interrupties zijn.
Die zijn er niet. Dan geef ik het voorzitterschap heel even over aan de heer Six Dijkstra
opdat ik zelf ook mijn woordvoering kan doen.
Voorzitter: Six Dijkstra
De voorzitter:
Dank u wel. Dan nu tot slot van de zijde van de Kamer: de heer Valize, die spreekt
namens de PVV.
De heer Valize (PVV):
Voorzitter, dank voor het woord. Ik houd het kort. Op de agenda staan vier brieven.
Drie daarvan gaan over de inzet van algoritmes: geautomatiseerde selectietechnieken
bij de Belastingdienst.
Voorzitter. De Autoriteit Persoonsgegevens heeft uitvoerig naar de processen bij de
Belastingdienst gekeken en geconstateerd dat, bezien vanuit rechtsgevolg of anderszins
in aanmerking te nemen gevolg, drie situaties te onderscheiden zijn.
Ten eerste zijn dat niet-uitgeworpen aangiftes, waarbij de betrokkene een aanslag
krijgt die volledig geautomatiseerd en zonder menselijke tussenkomst tot stand is
gekomen. Ten tweede zijn dat de uitgeworpen aangiftes, waarbij de betrokkene een aanslag
krijgt die tot stand komt door handmatige controle nadat de aangifte daarvoor geautomatiseerd
is uitgeworpen en ongeacht of correcties hebben plaatsgevonden. Ten derde hebben we
de aanmerkelijke gevolgen, waarbij de betrokkene anderszins gevolgen ondervindt van
de geautomatiseerde uitworp voor handmatige behandeling die los staan van de uiteindelijke
aanslag.
In de eerste situatie voorziet de Awb, de Algemene wet bestuursrecht, voldoende in
passende maatregelen voor deze besluiten. Voor de tweede situatie ook, mits dat volgens
de geldende wetgeving voor iedereen in dezelfde situatie zou gelden, en dat is neergelegd
in een regulier, transparant, gemotiveerd en aan rechtsbescherming onderworpen besluit.
Maar dan wordt in de derde situatie door de Autoriteit Persoonsgegevens opgemerkt
dat indien een selectieregel of een combinatie van selectieregels tot gevolg heeft
dat bepaalde groepen of individuen structureel een substantieel verhoogde kans op
correcties, onderzoeken en dergelijke lopen, deze gevolgen geacht moeten worden betrokkenen
vanaf een bepaald ernstig niveau in aanmerkelijke mate te kunnen treffen. Op dat punt
wordt in de kabinetsreactie niet ingegaan. Derhalve de vraag aan de Staatssecretarissen:
staat vast dat de uitkomsten uit risicoselecties niet bewaard worden voor of gedeeld
worden met andere toepassingen? Dat ligt dan ook weer in het verlengde van wat collega’s
al eerder hebben aangegeven. Dat is het wat betreft dit onderwerp.
Maar toch wil ik nog een ander onderwerp aanstippen: het Algoritmeregister. Per brief
van 8 april 2024 vernamen wij dat er 340 algoritmes stonden opgenomen in dat register.
Inmiddels – ik heb gisteren even gespiekt – zijn dat er 721. Dan kom ik bij mijn tweede
vraag, via de voorzitter: hoe is het in vredesnaam mogelijk dat het warempel zo ingewikkeld
en gecompliceerd lijkt om iets eenvoudigs als een simpel algoritme te beschrijven
en aan dat register toe te voegen?
Vorig jaar gaf ik reeds het voorbeeld van een LEGO-instructieboekje. Begin op een
willekeurige pagina, ga dan naar een andere willekeurige pagina en herhaal dit totdat
alle pagina’s geweest zijn. Geen idee wat het dan moet voorstellen, maar het komt
in de verste verte niet overeen met wat er op het plaatje wordt afgebeeld. Wat is
er van de Kamer nodig om te bevorderen dat die algoritmes er ook daadwerkelijk in
komen te staan? Want inmiddels is er geroepen dat het register in 2025 up-to-date
zou moeten komen. In de Volkskrant werd gisteren een voorzichtige schatting gemaakt:
16.000 algoritmes. We hebben nog heel wat te gaan.
Dan heb ik nog een bonusvraag, omdat ik het nu ook over dat artikel heb. Daarin wordt
ook gesproken over het vijfsterrenmodel, wat eerder ook al door mevrouw Koekkoek van
Volt en mevrouw Kathmann van GroenLinks-PvdA werd aangehaald. Heeft de Staatssecretaris
kennis van genomen van dat vijfsterrenmodel voor transparante algoritmes, en hoe kijkt
hij hiertegen aan?
Daarmee kom ik aan het einde van mijn betoog, voorzitter.
De voorzitter:
Ruim binnen de spreektijd, meneer Valize. Dank u wel. Dan draag ik het voorzitterschap
weer over aan u.
De heer Valize (PVV):
Dank, voorzitter. Maar ik zie nog een interruptie.
De voorzitter:
Excuus.
Mevrouw Kathmann (GroenLinks-PvdA):
Ik zal even twee interrupties in één doen, met ook dezelfde vragen die ik voor de
VVD had. Het is namelijk toch altijd belangrijk wat de PVV als grootste partij van
je voorstellen vindt. Ik zou dus ook graag van de heer Valize willen horen wat hij
van het voorstel vindt dat ik samen met de heer Jesse Six Dijkstra nog een keer zou
willen indienen. Het gaat om de voorstellen over de maximale transparantie op brieven
als mensen eruit zijn gepikt, en over het vijfsterrenmodel waarmee we eigenlijk veel
beter inzicht krijgen in wat algoritmes doen en hoe ze werken, in plaats van het niet-functionerende
Algoritmeregister dat we nu hebben. En als we dat register nu helemaal zouden vullen,
zou het ook nog niet helemaal werken. Ik hoor dus graag hoe de PVV daarover denkt.
De heer Valize (PVV):
Dank voor de uitstekende vraag, mevrouw Kathmann. In dat voorstel wordt voorgesteld
om onderaan de stukken te vermelden dat er gebruik is gemaakt van een selectiealgoritme
en welk algoritme dat is, want zo werd het vorig jaar ergens in april of mei gebracht.
Het is een interessant voorstel waar ik serieus naar zal kijken zodra u met een opzet
komt, en dan wil ik er ook wel in meedenken.
Wat betreft de tweede vraag over het vijfsterrenmodel, ben ik even kwijt wat u vroeg.
Volgens mij vroeg u hoe wij hierin staan? Ja, ik zie u knikken. U vroeg hoe wij erin
staan. Ik vind het een heel interessant voorstel en het maakt het voor de mensen thuis,
maar ook voor de mensen binnen de Kamer die erover praten en de verschillende departementen
die erover praten wel inzichtelijk, zo van: o, wacht eens even, deze is al getoetst
en akkoord bevonden. Het is dus eigenlijk een soort keurmerkje dat erop zit en dat
niet al te veel moeite zou moeten kosten, want je kunt het ook classificeren in dat
Algoritmeregister. Dus daarom vind ik het heel interessant om daar ook even de visie
van de Staatssecretaris op te horen.
De voorzitter:
Dan zie ik geen verdere interrupties en draag ik dit keer het voorzitterschap wel
echt ... O, er is toch wel een interruptie. Ik draag het voorzitterschap toch niet
over, want de heer Buijsse heeft nog een vraag aan u.
De heer Buijsse (VVD):
In feite heb ik dezelfde vraag als die ik stelde aan mevrouw Kathmann. Die stel ik
ook aan de heer Valize. Die vraag gaat eigenlijk over hoe u aankijkt tegen die ontwerpprincipes
om uiteindelijk fouten te voorkomen, niet alleen in die algoritmes, maar ook in andere
technologieën, zoals AI of de cloud. Kunt u enige reflectie geven op hoe u dat ervaart
binnen de verschillende overheden waar u mee te maken heeft?
De heer Valize (PVV):
Dan kom ik toch even op het volgende punt. Wat de heer Buijsse voorstelt, is natuurlijk
een valide vraag. Op het moment dat je dan met een voorstel gaat komen, moet je altijd
toetsen. Je moet altijd een aantal stappen doorlopen. Die stappen zijn ook bepaald
in de wetgeving. Op het moment dat iets wordt uitbesteed, heb je ook de aanbestedingsregels
en wordt er ook verwezen naar de verdragen waaraan moet worden getoetst. Er zit een
heel toetsingskader aan vast. Daarvoor ligt de bal toch bij de Staatssecretaris.
De voorzitter:
Er is geen vervolgvraag. Dan geef ik het voorzitterschap nu wel door aan de heer Valize.
Voorzitter: Valize
De voorzitter:
Ja, ex-voorzitter, dank voor het uitstekende voorzitterschap. Allen hartelijk dank
voor uw bijdrage. Ik kijk even naar de rechterzijde. We hebben net al even kort overlegd.
We zullen zo’n 50 minuten gaan schorsen. Ik maak er 55 minuten van, tot 19.20 uur.
Dan hebben we namelijk de tijd voor de voorbereiding van de beantwoording, dus de
eerste termijn van de Kamer. Ik bedoel de eerste termijn van de regering. We hebben
dan tevens nog even de mogelijkheid om te dineren, want het is al vrij laat. Sorry,
ik heb een beetje honger, dus ik praat er een beetje langs.
De vergadering wordt van 18.25 uur tot 19.23 uur geschorst.
De voorzitter:
Een hele goede avond. Allemaal welkom terug bij het commissiedebat Digitale Zaken
over de inzet van algoritmes en data-ethiek bij de rijksoverheid. De eerste termijn
van de Kamer zit erop. We gaan nu naar de eerste termijn van het kabinet, waarbij
als eerste de heer Szabó, Staatssecretaris Digitale Zaken, het woord zal nemen. Tot
slot nog een kleine huishoudelijke mededeling: ik sta vier interrupties per fractie
toe op de inbreng van de Staatssecretaris.
Staatssecretaris Szabó:
Dank u wel, voorzitter. Allereerst dank voor de eerste termijn van de Tweede Kamer.
Ik zal samen met mijn collega het volgende doen. Ik heb een algemene inleidende spreektekst.
Vervolgens heb ik de mapjes verantwoorde inzet AI, algoritmen, transparantie, register,
en een mapje overig. Daarmee hoop ik de vragen van de Kamer te hebben beantwoord.
Daarna geef ik het woord aan de Staatssecretaris voor Rechtsbescherming voor de resterende
vragen.
Voorzitter. Allereerst een algemene opmerking over hoe ik verder wil met dit dossier.
Ik zit hier een dikke zes maanden. Zoals u weet, ben ik bezig met het ontwikkelen
van een Nederlandse Digitaliseringsstrategie. Die komt al over een aantal weken. Dat
moment komt steeds dichterbij. In dat dossier zijn we, voor de mensen die het niet
weten, een aantal prioriteiten aan het bepalen. Die hebben we bepaald in een sessie
samen met ministeries, medeoverheden, zbo’s, de VNG, de IPO, waterschappen, de wetenschap
en ook mensen uit de Eerste en Tweede Kamer. Uit die discussie is naar voren gekomen
dat we in ieder geval moeten kijken naar zaken als de cloud, waar we strakker aan
moeten trekken, maar ook naar het dossier AI. Dat is redelijk nieuw en daar moeten
we mee verder in de komende jaren. Algoritmes en data-ethiek is ook zo’n dossier.
Twintig jaar geleden heb ik in de Tweede Kamer gezeten. Destijds heb ik als woordvoerder
ICT discussies gevoerd over toegankelijkheid. Nu, twintig jaar later, zie ik dat we
heel lang aan naming-and-shaming hebben gedaan, heel lang medeoverheden maar ook ministeries
hebben aangesproken om de toegankelijkheid goed in te richten. Vervolgens is er wetgeving
gekomen in 2018, dus zo’n veertien jaren nadat we daarover debatten hebben gevoerd.
Maar dat de toegankelijkheid tot op heden niet goed geregeld is, is ook iets wat mij
behoorlijk stoort. Dit soort zaken moet dus ook terugkomen in de Nederlandse Digitaliseringsstrategie,
uitgaande van het begrip standaardisatie en het begrip dat als we één overheid zijn
en we afspraken maken met elkaar, we die ook gewoon moeten uitvoeren.
We hebben het vandaag over het register en data-ethiek. Ik heb in de afgelopen zes
maanden vastgesteld dat er op nog heel veel vragen antwoord moet worden gegeven. In
de tussentijd hebben we ook het AP-advies binnengekregen en moeten we met medeoverheden
maar ook met de politiek verder kijken naar waar we het dan over hebben, ook wat de
definities betreft. Dat is ook wel een beetje naar voren gekomen vandaag.
Ik hoop dus niet dat u van mij verwacht dat er aan het einde van dit debat een antwoord
is op alle vragen. Dit is namelijk zeer serieus. Ook kijk ik hoe we de komende jaren
verder moeten om het Algoritmeregister goed gevuld te krijgen en wat de relevantie
is van het gebruik daarvan, door journalisten, door de wetenschap maar ook door burgers,
bedrijven en door onszelf. Wat ik ook ga doen in dat kader, is in het land bespreken
– we hebben in Nederland immers ook te maken met de NDS, de Nederlandse Digitaliseringsstrategie
– hoe we dit onderwerp verder kunnen brengen, net zoals andere onderwerpen. Ik kan
altijd worden uitgenodigd. Dit is een uitnodiging aan mensen die kijken om mij langs
te laten komen om de Digitaliseringsstrategie verder te bespreken, en dan met name
voor zaken als standaardisatie en zich houden aan de afspraken die we met elkaar maken.
Hetzelfde geldt ook voor mijn collega’s binnen het kabinet. Dat even als algemene
inleiding.
De meeste mensen waren al op de hoogte van deze strategie. Ik wil die verder oppakken
met «samen» als kernbegrip. Dit moeten wij samen doen. We kunnen niet langs elkaar
heen praten. We kunnen niet iedere keer debatten hebben over vragen als «waarom bent
u nog niet zover?» en «zijn we het wel eens over de verschillende definities?» Nee,
dit moeten we gewoon vanaf dag één samen met elkaar invullen. Dat als algemene opmerking.
Voorzitter. Ik begin met het adviesrapport van de Autoriteit Persoonsgegevens over
geautomatiseerde selectietechnieken. Dat heb ik bestudeerd en dat heeft wat tijd nodig
gehad. Het advies komt op een moment waarop de mogelijkheden van AI en algoritmes
ook binnen de overheid volop de aandacht hebben. Niet voor niets neemt het thema AI
een belangrijke plaats in binnen de Nederlandse Digitaliseringsstrategie die ik binnenkort
zal presenteren. Het adviesrapport van de AP bevestigt opnieuw dat de verantwoorde
inzet van AI en algoritmes binnen de overheid onze scherpe aandacht nodig heeft, met
oog voor kansen, maar ook voor negatieve aspecten en potentiële risico’s.
Voorzitter. Geautomatiseerde selectie-instrumenten en geautomatiseerde besluitvorming
zijn onmisbaar om de taken van de overheid efficiënt te kunnen uitvoeren. Uit het
advies van de AP hierover blijkt dat er geen specifieke wetgeving nodig is voor het
maken van dergelijke risicoselecties, wanneer althans de gevolgen van de selectie
voor de betrokkene pas intreden na betekenisvolle menselijke tussenkomst. Ik kom daar
straks nog op terug, ook aan de hand van de vragen die daarover zijn gesteld.
De AP benadrukt in het advies wel dat dergelijke automatisering aan een aantal waarborgen
moet voldoen. Zo moet periodiek gecontroleerd worden op discriminatie en moet er voldoende
transparantie zijn. In de kabinetsreactie op het AP-adviesrapport heeft u kunnen lezen
dat wij starten met het analyseren van casuïstiek met betrekking tot de inzet van
selectie-instrumenten in de huidige uitvoeringspraktijk. De nadruk zal liggen op geautomatiseerde
besluitvorming, waarbij persoonsgegevens worden verwerkt, aangezien deze vanuit het
oogpunt van dit AP-adviesrapport het meest belangwekkend zijn.
Zoals u weet, zet ik in op uniformering en op standaardisatie, zoals daarnet aangegeven,
om de veelheid aan regels, handreikingen, white papers en ga zo maar door te bundelen.
Het Algoritmekader biedt daarom al een zo compleet mogelijk overzicht van de regels
waar overheden aan dienen te voldoen, en de maatregelen die overheden daartoe kunnen
treffen. Wanneer ik kijk naar de aandacht voor het Algoritmekader, zie ik dat overheden
momenteel overal bezig zijn met vragen die gaan over de impact van de AI-verordening
en de inrichting van de interne governance op het vlak van algoritmes. Het Ministerie
van Binnenlandse Zaken organiseert diverse bijeenkomsten in het land – webinars, spreekuren
en ga zo maar door – om de vragen die leven bij overheden te voorzien van een antwoord
en van handelingsperspectief.
De aanbevelingen van de AP neem ik ter harte. Ze zijn al zo veel mogelijk opgenomen
in het Algoritmekader. U kunt dan bijvoorbeeld denken aan hulpmiddelen op het vlak
van bias-toetsing of informatie over de inrichting van menselijke tussenkomsten. Mijn
doel is naar aanleiding van de aangekondigde analyse van casuïstiek te kijken naar
welke maatregelen en instrumenten er verder nodig zijn teneinde de overheid te helpen
om te voldoen aan de voorwaarden die door de AP benoemd zijn. Deze zullen vervolgens
ook weer opgenomen worden in het Algoritmekader.
Voorzitter. De leden Omtzigt en Six Dijkstra dienden een motie in tijdens het plenaire
debat over het rapport van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening,
Blind voor mens en recht. Dit was op 15 januari jongstleden. In de motie wordt verzocht
om de passage uit het hoofdlijnenakkoord nader uit te werken. Het gaat om het gebruik
van wetenschappelijke standaarden van modellen en algoritmes, hoe deze standaarden
afdwingbaar worden gemaakt en hoe de bijsluiter voor gebruikte modellen zal worden
opgesteld. Ik zal uw Kamer voor april hierover per brief nader informeren, zoals gevraagd
in de motie.
Ik kan u wel op voorhand meegeven dat sinds de start van het Algoritmekader wordt
samengewerkt met wetenschappelijke instellingen. In het Algoritmekader zijn bijvoorbeeld
maatregelen en instrumenten te vinden die overheden kunnen helpen te voldoen aan juridische
vereisten, waaronder maatregelen die gericht zijn op wetenschappelijke toetsing, zoals
verificatie, validatie, nauwkeurigheid en biastoetsing. Ook is het impactassessment
voor mensenrechten bij de inzet van algoritmes, IAMA, opgesteld door de Universiteit
van Utrecht. Ik ben heel blij dat ik gezien heb, de eerste maanden dat ik hier zit,
dat dat instrument ook steeds meer wordt ingezet. Er zijn meerdere instrumenten naast
IAMA, dus ik denk dat we de komende tijd moeten kijken welke instrumenten het meest
effectief zijn voor welke vragen. Als ik het met medeoverheden over dit onderwerp
heb, zal ik ook aangeven dat aan de voorkant – dan kijk ik ook naar de VVD – dit soort
instrumenten gewoon serieus worden opgepakt om zo veel mogelijk ongelukken te voorkomen.
Mijn inzet is erop gericht, zoals ik daarnet al zei, om het landschap van white papers,
handreikingen en kaders te bundelen. Het wordt anders een doolhof voor overheden,
die mij er tegelijkertijd op aanspreken dit te harmoniseren. Instrumenten zoals het
Algoritmeregister en het Algoritmekader zijn aan het einde van 2022 en gedurende 2023
gepubliceerd. Die worden nu geïmplementeerd en veel van die systemen waar uw Kamer
haar zorg over heeft uitgesproken, stammen echter ook van voor die tijd. Dit betekent
dat we als overheid een inhaalslag dienen te maken met het verantwoord inzetten van
AI en algoritmes.
Wat betreft transparantie: het is goed nieuws dat het Algoritmeregister steeds verder
wordt gevuld, maar het is nog niet voldoende. Het aandeel algoritmes in het register
heeft de 700 registraties inmiddels overschreden. Het gaat hierbij om ruim 200 overheidsorganisaties.
De departementen hebben uw Kamer toegezegd om 1 februari 2025 ten minste alle AI-toepassingen
met een hoog risico te hebben geregistreerd in het register.
Voorzitter. Zonder toezicht is er geen naleving. Als sluitstuk benadruk ik ook het
belang van onafhankelijk toezicht op algoritmes en AI bij de overheid. In 2025 verhoogt
het kabinet het budget van het algoritmetoezicht bij de AP. Dit gaat in het bijzonder
om de directie Coördinatie Algoritmes, DCA, een onderdeel van Autoriteit Persoonsgegevens.
Daarnaast wordt het toezicht op de AI-verordeningen momenteel voorbereid en zal het
kabinet onder regie van de Minister van Economische Zaken uw Kamer dit jaar voorzien
van een kabinetsstandpunt over het toezicht van de AI-verordening. Ook de overheid
valt onder dit toezichtstelsel. Met de medeoverheden, de provincies, de gemeenten,
de waterschappen, het Rijk en de daartoe behorende zbo’s, zet ik in op het nader uitwerken
van het kader, het zogenoemde horizontale toezicht. Het komt erop neer dat ik de democratische
controle wil stimuleren bij onze medeoverheden, ook als het gaat om de inzet van algoritmes
en AI-systemen. Ik wil dit aspect dan ook terug laten komen in de Nederlandse Digitaliseringsstrategie,
waar ik aan werk.
Met uw welnemen ga ik nu over tot de beantwoording van de vragen, voorzitter. Dan
begin ik met het beantwoorden van de vragen bij het blokje inzet AI-algoritmen. Dat
is een hele stapel. Ik zal proberen de vaart erin te houden, voorzitter.
Eerst de vragen van uzelf, voorzitter, maar dan als de heer Valize van de PVV, en
de vragen van mevrouw Kathmann en de heer Buijsse. De vragen gaan over het vijfsterrenmodel.
Heeft de Staatssecretaris daar kennis van genomen en hoe kijkt hij ertegen aan? Ik
heb hier zeker kennis van genomen. Hoewel het model als zodanig niet wordt gehanteerd
door de overheid, sluit het wel aan op onderdelen van het huidige beleid en met name
op de eerste twee van de vijf onderdelen. Ik wil mij hierin verdiepen en dit betrekken
bij de brief van april waarin ik u informeer over de wetenschappelijke standaard.
Op welke manier, zo vraagt de heer Six Dijkstra, is er sprake van willekeur bij algoritmen?
Hoe vaak komt dat voor? Er kunnen fouten in de data of in de modellen zitten waardoor
er sprake is van vooringenomenheid of willekeur. Ik zet mij in voor transparantie
door middel van onder meer het Algoritmeregister, waardoor we hier meer inzicht in
kunnen krijgen. Ook met behulp van het Algoritmekader geef ik overheden hulpmiddelen
om willekeur in algoritmes te voorkomen. De heer Six Dijkstra vraagt ook of er al
stappen worden genomen om burgers proactief te informeren over hun betrokkenheid bij
algoritmerisicoselecties en of burgers al worden gewezen op hun rechten. Ik ga ervan
uit dat dit duidelijk zal worden uit de uitvraag die door het Netwerk van Publieke
Dienstverleners zal worden gedaan. De resultaten komen voor het einde van het jaar.
De voorzitter:
U heeft een interruptie van de heer Six Dijkstra. U mag ook even de microfoon uitzetten.
De heer Six Dijkstra (NSC):
Ik had deze vraag eigenlijk aan de andere Staatssecretaris gesteld, omdat ik het specifiek
had over het algoritme Preselect Recidive en mijn vraag minder in algemene zin bedoeld
was, zoals in het antwoord van de Staatssecretaris. Gaat uw collega daar ook nog op
in? Oké, dan houd ik mijn mond.
Staatssecretaris Szabó:
Jazeker, hij komt erop terug, hoor ik rechts van mij, voor de kijkers links.
De voorzitter:
Het woord is aan de Staatssecretaris.
Staatssecretaris Szabó:
Voldoen geautomatiseerde risicoprofielen overheidsbreed aan alle maatregelen uit het
AP-advies? Ik heb daar momenteel nog onvoldoende zicht op. Het AP-advies is vrij recent
en het Netwerk van Publieke Dienstverleners zal op basis van het advies bij zijn leden
een uitgebreide uitvraag doen naar de inzet van dergelijke selectie-instrumenten en
de uitkomsten daarvan analyseren. Naar aanleiding daarvan wil ik kijken wat er nodig
is om organisaties verder te ondersteunen bij het nemen van de juiste maatregelen.
Inderdaad verwacht ik uw Kamer hierover aan het eind van het jaar te mogen informeren.
De voorzitter:
U heeft een interruptie van de heer Ergin. En u mag nog even de microfoon uitzetten.
Staatssecretaris Szabó:
Dat gaat steeds fout, voorzitter.
De heer Ergin (DENK):
Wat ik dan niet begrijp, is dat het kabinet op basis van het AP-advies eigenlijk zegt:
wij gaan de lijst van mogelijk illegale algoritmen op basis van dat AP-advies niet
publiceren. Tegelijkertijd stellen wij de Staatssecretaris de vraag welke algoritmen
er dan niet voldoen aan het AP-advies. Dan is de reikwijdte wat beperkter van bijvoorbeeld
het SCHUFA-arrest. Ik heb daar mijn twijfels bij, maar stel dat we daarvan uit kunnen
gaan. Waarom voldoet het kabinet dan weer niet aan de toezegging op, volgens mij,
een verzoek van het lid Idsinga om die lijst een paar weken geleden al te publiceren?
Waarom voldoet het kabinet daar dan weer niet aan? En waarom wordt er wéér een deadline
verschoven?
Staatssecretaris Szabó:
We nemen dit mee in de analyse van het netwerk. Daaruit zal dat moeten blijken. Geef
ons dus nog even tijd.
De voorzitter:
U heeft een interruptie van de heer Six Dijkstra en de microfoon mag weer uit.
De heer Six Dijkstra (NSC):
Ik wil het even scherp krijgen, want ik begin wel een beetje in verwarring te raken.
De regering heeft eerst gezegd, zoals mijn collega ook al zei, dat zij die inventarisatie
niet zou gaan doen. Het kabinet had besloten om de capaciteit anders te besteden.
Waar krijgen we dan nu een inventarisatie van? De Staatssecretaris gaat namelijk alsnog
een brede uitvraag doen. Hij gaat kijken hoe het allemaal in elkaar zit en welke er
compliant zijn. Waar zit dan het verschil in? Dat is toch in principe die inventarisatie?
Hoe moeten wij dat zien als Kamer?
Staatssecretaris Szabó:
De menselijke tussenkomst bij uitvoerders in relatie tot persoonsgegevens. Als dit
niet helemaal helder is, kom ik er in tweede termijn op terug om het wat scherper
neer te zetten.
De voorzitter:
Akkoord. Dan mag u uw inbreng vervolgen.
Staatssecretaris Szabó:
Nogmaals de heer Six Dijkstra: als er geen algemene inventarisatie komt, dan graag
een overheidsbreed ... Ja. Daar kom ik straks op terug.
De voorzitter:
U heeft een interruptie van de heer Ergin.
De heer Ergin (DENK):
Ik ben ook benieuwd naar de analyse van de Staatssecretaris van het volgende. We hebben
het AP-advies. Dat is een advies op basis van de huidige Nederlandse wet- en regelgeving.
Daarnaast hebben we het SCHUFA-arrest, dat uitgaat van Europese regelgeving. Als we
beide documenten met elkaar vergelijken, zien we dat de Europese interpretatie van
de Europese regels veel strikter is dan de interpretatie die het kabinet nu in de
reactie heeft gegeven. Die is eigenlijk ook veel strikter dan hoe de AP het in het
advies heeft opgenomen. Ik ben benieuwd naar de analyse van de Staatssecretaris van
het volgende. Hij koerst nu eigenlijk op het AP-advies, maar over een paar jaar wordt
het kabinet op de vingers getikt, omdat het niet voldoet aan de Europese regels als
het gaat om geautomatiseerde algoritmes.
Staatssecretaris Szabó:
Wat betreft deze specifieke vragen van de heer Ergin: ik ga er allereerst van uit
dat de AP wel voldoet aan de Europese regelgeving. Ik ga ervan uit dat zij de kennis
en kunde heeft om zich daaraan te houden. De AP concludeert dat er geen specifieke
wetgeving nodig is voor geautomatiseerde risicoselectie wanneer eventuele gevolgen
van de selectie voor de betrokkenen pas intreden na betekenisvolle menselijke tussenkomst.
De Autoriteit Persoonsgegevens is onafhankelijk toezichthouder op de AVG. Zij heeft
mede als taak om een normuitleg te geven over begrippen uit de verordening. Vanwege
deze taak volgen wij hun advies.
Voorzitter. Dan ga ik verder met weer een vraag van de heer Six Dijkstra. Hij vraagt
naar de toezegging die is gedaan over de resultaten van het onderzoek naar de effectiviteit
van risicoselectie en een aselecte steekproef in relatie tot discriminatie. Ik vind
het goed dat hiernaar wordt gekeken. Ik zal mij verdiepen in de uitkomsten van dat
onderzoek. Ik geleid u voor deze vraag wel door naar de Minister van Binnenlandse
Zaken en Koninkrijksrelaties. Als het goed is, heeft u morgen een debat over discriminatie
en racisme.
De voorzitter:
Dat nodigt uit tot een interruptie van de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Het ging natuurlijk wel om algoritmische risicoselectie. Dat is ook het onderwerp
van dit debat. Dus de Staatssecretaris kan het wel doorschuiven naar morgen en ik
kan mijn collega vragen of hij daar ook een vraag over wil stellen, maar in principe
valt dit wel onder de orde van dit debat en binnen de reikwijdte van de portefeuille
van deze Staatssecretaris. Kan hij iets meer duidelijkheid geven over wanneer we dat
moeten verwachten, want in principe valt dat wel binnen de orde van het debat.
Staatssecretaris Szabó:
Het is het dossier van de Minister, dus ik kom nog terug op wanneer u dat kunt verwachten.
Dan een vraag van de heer Six Dijkstra. Hij zei dat in het hoofdlijnenakkoord een
wetenschappelijke standaard voor modellen is afgesproken en dat die vorige week bekrachtigd
is met een motie. Hoe gaat het kabinet hiermee aan de slag, vroeg hij. Ik ben vanzelfsprekend
voornemens uitvoering te geven aan de afspraken uit het hoofdlijnenakkoord. De wetenschap
is al op vele manieren betrokken bij de inzet van algoritmes en instrumenten die zorgen
voor de verantwoorde inzet daarvan. Ik zal, zoals toegezegd, voor april een brief
aan uw Kamer zenden over de manier waarop ik hier uitvoering aan ga geven, in lijn
met de motie-Omtzigt/Six Dijkstra. Daar heb ik in mijn inleiding ook al over gesproken.
Opnieuw twee vragen van de heer Six Dijkstra: «Welk mensbeeld zit er achter de risicoselectie
bij de inzet van algoritmes? Gelooft u dat het toekomstige gedrag van individuen te
vangen is in voorspellende algoritmes?» Algoritmes voor risicoselectie voorspellen
gedrag niet. Het zijn statistische berekeningen om de kans op een gebeurtenis in te
schatten. Ik wil benadrukken dat na risicoselectie een mens altijd moet bekijken wat
er moet gebeuren en of er bijvoorbeeld controle nodig is. Ook bij de inzet van risicoselectie
blijft de menselijke maat van belang. In dat kader kan ik over het mensbeeld het volgende
zeggen. Ik geef altijd aan, ook op het ministerie, dat de ambtenaar bij de uitvoering
van zijn dienst altijd op de stoel moet gaan zitten van een burger of bedrijf, dus
de ontvanger, om zijn proces zo goed mogelijk uit te kunnen voeren. Als er verbeteringen
zijn, zal hij dat ook moeten melden.
Dan nog een vraag van de heer Six Dijkstra: welke gevolgen worden concreet verbonden
aan de risicoselectie bij de inzet van algoritmes? Risicoselectie wordt door overheden
ingezet in het kader van toezicht en handhaving. Op basis van risicoselecties wordt
bijvoorbeeld bepaald of handmatige behandeling van een casus of een controle plaatsvindt.
Als een algoritme wordt gebruikt voor risicoselecties, moet er een tussenkomst van
een mens zijn voordat een eventueel besluit wordt genomen. Dit sluit aan bij mijn
vorige antwoord.
Dan de vragen van de heer Ergin van DENK en van PvdA-GroenLinks, als ik ze samen mag
brengen: in de kabinetsreactie op het AP-advies geeft u aan dat wettelijke grondslagen
niet ontbreken voor geautomatiseerde selectietechnieken, onder voorwaarde dat er een
menselijke tussenkomst is; wat begrijpt u onder menselijke tussenkomst? Daarvoor geeft
de Autoriteit Persoonsgegevens richtlijnen mee. Die volgt het kabinet. De menselijke
tussenkomst moet betekenisvol zijn. Dat wil zeggen dat de behandelend ambtenaar moet
kunnen beoordelen of selectie in een bepaald geval terecht is. Dat vereist onder meer
dat de ambtenaar bekend is met de werking van de selectieregel of het algoritme.
Dan, voorzitter, mevrouw Koekkoek. Volt is van mening, geeft mevrouw Koekkoek aan,
dat alle algoritmes en datasets die met overheidsgeld ontwikkeld zijn, gratis beschikbaar
moeten zijn voor iedere burger in Europa. Deelt de Staatssecretaris deze mening, was
de specifieke vraag. Nee, ik deel deze opvatting niet. Het is wellicht wenselijk,
maar vaak niet mogelijk. En waarom niet? Algoritmes die door overheden worden gebruikt,
worden vaak door bedrijven ontwikkeld en vallen onder het intellectueel eigendom van
deze bedrijven. Wel zijn we op dit moment hard bezig met het gratis beschikbaar maken
van specifieke hoogwaardige datasets. Met het opensourcebeleid wordt er wel op ingezet
om dit zo veel mogelijk voor algoritmes te realiseren.
Dan een combinatievraag, als u mij dat toestaat, van BBB en DENK. Die gaat over illegale
algoritmes. Via de voorzitter, als ik de vragen van BBB en DENK goed heb samengevat:
vindt het kabinet dat er helemaal geen illegale algoritmes meer zijn en hoe kan dit
met zekerheid worden gezegd en waarom is er geen aparte inventarisatie? Op dit moment
kunnen we dit niet met honderd procent zekerheid uitsluiten. Het Netwerk van Publieke
Dienstverleners zal, zoals aangekondigd, onder de uitvoerders een uitgebreide uitvraag
doen naar de inzet van dergelijke selectie-instrumenten, om die vervolgens te kunnen
analyseren. Aan de hand van deze analyse wil ik kijken welke maatregelen of instrumenten
nodig zijn. Nog twee regels. Kan dat nog? Ja. Daarnaast wordt het Algoritmeregister
gevuld, zodat we zicht hebben op hoogrisicoalgoritmen. Als blijkt dat daar illegale
algoritmes tussen zitten, worden die gestopt. Voor het eind van het jaar zullen de
hoogrisicoalgoritmes in het register zitten. Daarvoor is door alle departementen een
toezegging gedaan.
De heer Vermeer (BBB):
Ik neem aan dat de Staatssecretaris of zijn collega straks bijvoorbeeld nog even terugkomt
op wie bepaalt wat hoog risico is, maar er is door de Algemene Rekenkamer ook een
aantal algoritmes onderzocht. Dat heeft natuurlijk ook met deze problematiek te maken
en ook met het toetsen of algoritmes illegaal zijn. Graag zou ik nog even weten welke
onderzoeken naar welke algoritmes er op dit moment lopen bij de Algemene Rekenkamer,
maar dat mag ook in de tweede termijn beantwoord worden. Welke onderzoeken naar algoritmes
lopen op dit moment bij de Algemene Rekenkamer en welke algoritmes zijn dat?
Staatssecretaris Szabó:
Dank voor deze vraag. Ik denk dat het een hele relevante vraag is. Dan ga ik verder
met weer een vraag van de heer Vermeer. Automatische selecties worden als oké gezien
als deze alleen worden gebruikt om te beoordelen of verdere acties nodig zijn of niet.
Hoe kan dat worden vastgesteld? En hoe wordt bepaald dat profilering geen invloed
heeft op het uiteindelijke menselijke besluit?
De voorzitter:
Dan onderbreek ik u toch even, want u heeft nog niet aan de heer Vermeer laten weten
of u daar in tweede termijn eventueel nog even op terugkomt. Dat was de vraag.
Staatssecretaris Szabó:
Het antwoord is ja. Ik hoop dat we ook daarop in de tweede termijn het goede antwoord
kunnen geven. Als dat niet lukt, dan krijgt u een brief. Maar we gaan er wel van uit
dat dit gaat lukken, voorzitter.
Goed, ik heb de vragen van de heer Vermeer opgelezen. Op dit moment is er geen duidelijkheid
over hoe deze processen per organisatie verlopen. De toegezegde analyse van casuïstiek
door het Netwerk van Publieke Dienstverleners moet hier meer duidelijkheid over geven.
Er worden wel wat vragen aan dat netwerk gesteld, dus ik denk dat er eind van het
jaar heel belangrijke conclusies opgeschreven worden, waar we verder mee kunnen.
De voorzitter:
U heeft toch nog een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
Op de gok af dat de Staatssecretaris het net wilde vertellen: er was ook nog de vraag
hoe bepaald wordt dat die profilering geen invloed heeft op het uiteindelijke besluit.
Er zit namelijk natuurlijk wel een knip, maar de manier waarop die profilering gepresenteerd
wordt aan de mens is heel erg bepalend voor hoe die mens dat oppakt en welke conclusies
daaruit getrokken worden.
Staatssecretaris Szabó:
Het antwoord op deze vraag is ook een onderdeel van het plan van aanpak van het netwerk.
Hier komen wij dus ook op terug.
U heeft nog een vraag: hoe gaan wij om met vooroordelen wanneer er sprake is van menselijke
tussenkomst? Er is de afgelopen jaren veel gebeurd op het vlak van bewustwording en
training om discriminatie te voorkomen. Vragen over het algemene discriminatiebeleid
geleid ik graag door naar de Minister van Binnenlandse Zaken, met wie u morgen een
debat heeft.
Dan is er nog een vraag van de heer Vermeer.
De voorzitter:
U krijgt zelfs een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
Nou, voorzitter, het is meer een procedurevraag. Moet ik dit zien als de toezegging
dat die vragen daar beantwoord worden en dat ik dat uit de Handelingen kan halen?
Staatssecretaris Szabó:
We gaan aan de slag, voorzitter, met de beantwoording van deze vraag.
Dan is er nog een vraag van de heer Vermeer. Is het niet noodzakelijk dat ook databases
die worden gebruikt, in kaart worden gebracht om een compleet beeld te krijgen? De
effectieve en verantwoorde inzet van algoritmes hangt vanzelfsprekend inderdaad samen
met de kwaliteit van de daarbij gebruikte data. In het Algoritmeregister is ruimte
om informatie op te nemen over de gebruikte data. Van deze mogelijkheid wordt echter
niet altijd gebruikgemaakt. Wel is het zo dat de meeste impactvolle algoritmes persoonsgegevens
gebruiken. De AVG stelt specifieke regels aan het delen en openbaar maken van deze
data. Een additionele opmerking: het Algoritmeregister wordt gebruikt. Eigenlijk wordt
er gezegd: vult u hem maar. We gaan echter nu ook analyseren hoe het gevuld wordt
en hoe we het zo kunnen optimaliseren dat de voor gebruik juiste informatie er ook
in komt te staan.
Weer een vraag van de heer Vermeer, over de analyse van selectie-instrumenten bij
uitvoeringsorganisaties. BBB ziet ruimte voor verbetering en aanscherping. Is het
inmiddels duidelijk of de Staatssecretaris een coördinerende rol krijgt? Nee, dat
is nog niet duidelijk. Het Netwerk van Publieke Dienstverleners doet zelf de uitvraag
onder uitvoerders, analyseert de uitkomsten en organiseert de kennisdeling. Ik ben
wel nauw betrokken bij het proces en bij de uitkomsten.
Dan een vraag van mevrouw Kathmann. Hoe ziet het er in de praktijk uit als een algoritme
iemand als frauderisico ziet? Dit verschilt per toepassingsgebied. Het kan bijvoorbeeld
van tevoren zijn of achteraf. Zoals gemeld zal het Netwerk van Publieke Dienstverleners
bij haar leden een uitgebreide uitvraag doen naar de inzet van selectie-instrumenten
om die vervolgens te kunnen analyseren. Aan de hand van deze analyse wil ik kijken
welke maatregelen of instrumenten nodig zijn om verder invulling te kunnen geven aan
de waarborgen uit het AP-advies.
Dan is er nog een vraag van mevrouw Kathmann. Hoe gaat het kabinet zorgen voor eenduidige
werkwijze binnen de overheid, over hoe medewerkers binnen de overheid omgaan met algoritmes?
Bestaande instrumenten, zoals het Algoritmekader, kunnen overheidsmedewerkers hierbij
helpen. Hierin staat een overzicht van alle geldende verplichtingen voor de inzet
van algoritmes door de overheid. Kennisdeling tussen publieke dienstverleners en de
departementen is hierbij vanzelfsprekend van belang. Daarnaast organiseert de overheid
trainingen op het gebied van techniek, bewustwording en compliance.
Ik heb nog een vraag van mevrouw Kathmann. Hoe kunnen burgers weten of er in een proces
een mens aan te pas is gekomen? In veel gevallen is dat op dit moment lastig aan te
geven. De analyse van casuïstiek, die ik in samenwerking met het Netwerk van Publieke
Dienstverleners zal uitvoeren, zal meer inzicht moeten geven in hoe er in de praktijk
invulling kan worden gegeven aan maatregelen als deze.
De voorzitter:
Dat lokt een interruptie uit van mevrouw Kathmann.
Mevrouw Kathmann (GroenLinks-PvdA):
Dank aan de Staatssecretaris voor het antwoord op de vraag wat betekenisvolle menselijke
tussenkomst is. Het is fijn dat wij ons idealiter aan de richtlijnen van de AP houden,
maar als daar vervolgens een punt komt, wordt het heel ingewikkeld. Ik vind het volgende
al helemaal ingewikkeld. Als we ons aan de AP-richtlijnen houden, hoe weten we dan
dat ambtenaren weten waar ze mee werken en dat de burger snapt wat de werking van
zo’n algoritme is? Het is fijn dat we allemaal trainingen, richtsnoeren en richtlijnen
hebben. Maar ondertussen kunnen wij als Kamer, als we willen zien wat er gebeurt,
alleen kijken naar een register dat niet gevuld wordt. Hoe komen we nou tot iets wat
de Kamer beter kan controleren, zodat we kunnen zeggen «hier gaat echt wat vooruit»
of «die richtlijn is niet alleen een papieren tijger; dat doen we ook echt»?
Ik denk dat de Staatssecretaris misschien straks nog terugkomt op het voorstel dat
we eerder samen met de heer Six Dijkstra hebben gedaan. De enige manier waarop je
daar echt aan kan werken, is op elke brief zetten welk algoritme er is gebruikt en
op basis van welke indicatoren iemand eruit is gehaald. Dat is dus niet alleen voor
die burger noodzakelijk, maar ook voor de ambtenaar die die brief op moet schrijven,
de klacht die binnenkomt moet afhandelen of de informatie die wordt gevraagd moet
verstrekken. Ik denk dat we op die manier dit probleem kunnen oplossen.
Staatssecretaris Szabó:
Dat zit nog in het antwoordenpakketje; daar kom ik nog op terug. Wat de trainingen
betreft: ik sta er altijd voor open om meer informatie te geven over welke trainingen
onze ambtenaren krijgen, indien daar vanuit de commissie voor Digitale Zaken behoefte
aan is.
Nog een vraag van mevrouw Kathmann: «Gaan wij algoritmes onder de AI-verordening stopzetten
als ze niet voldoen? Wat zijn verboden AI-systemen volgens de AI-verordening?» Overheden
worden actief aangemoedigd om hun huidige AI-systemen in kaart te brengen. Een verboden
AI-systeem moet worden stopgezet. Verboden AI-praktijken zijn AI-systemen met een
dusdanig risico op de inbreuk op grondrechten, gezondheid en veiligheid dat ze niet
zijn toegestaan.
Dan nog een vraag van mevrouw Kathmann: «Voldoet Nederland vanaf volgende week aan
de AI-verordening? Duidelijk ja of nee, meneer de Staatssecretaris.» Het antwoord,
mevrouw Kathmann ... Dit is geen grapjasserij, hoor. Het antwoord is ja. Voor zover
bekend voldoet de Nederlandse overheid aan de eerste bepalingen over verboden AI-systemen.
Dan een vraag van de heer Valize van de PVV. Deze is heel cryptisch. Staat het vast
dat uitkomsten uit risicoselecties niet bewaard of gedeeld worden voor andere toepassingen?
O nee, de vraag is toch niet zo cryptisch. De heer Valize had het, geloof ik, met
name over de Belastingdienst. Er is geen aanleiding om te veronderstellen dat uitkomsten
van risicoselecties bewaard of gedeeld worden voor andere toepassingen die betrekking
hebben op een specifieke belastingplichtige. Wel kan de Belastingdienst algemene informatie
vergaren uit risicoselecties. Wanneer bijvoorbeeld een bepaald onderwerp veel uitgeworpen
wordt, kan de Belastingdienst die informatie gebruiken om de communicatie over dat
onderwerp aan te passen. Opslag kan wel plaatsvinden in het kader van de Archiefwet.
Mevrouw Kathmann (GroenLinks-PvdA):
Ik was nog heel even flabbergasted door het antwoord, waarin de Staatssecretaris met
zulke volle overtuiging zegt dat we volgende week aan de AI-verordening voldoen. De
Rekenkamer heeft immers net een rapport gepubliceerd waaruit blijkt dat we de helft
van de AI-systemen die we gebruiken niet in beeld hebben en dat we geen risicoanalyses
doen. Dus ja, als je zegt «we weten natuurlijk niet wat niet weten», is het makkelijke
antwoord: we voldoen eraan, want ik weet het niet. Maar daar ging mijn vraag natuurlijk
over. Het is zo slecht gesteld dat we niet weten wat we gebruiken en de risico’s niet
weten van wat we gebruiken. Het erge is ook nog dat als we het gebruiken, we niet
eens meten of we de doelstelling van het gebruik halen. Als we dat weten, moeten we
dus ongelofelijk veel zorgen hebben over of we wel aan die AI-verordening voldoen.
Staatssecretaris Szabó:
Het gaat specifiek om de verboden AI-systemen, dus niet om alle AI-systemen. Daar
hebben we naar gekeken.
De voorzitter:
Een vervolgvraag van mevrouw Kathmann.
Mevrouw Kathmann (GroenLinks-PvdA):
Is er dan ook gekeken naar de helft van de AI-systemen die we niet in beeld hebben?
Of is er gekeken naar de helft van de systemen die we in beeld hebben? Want dat zijn
de systemen die we in beeld hebben.
Staatssecretaris Szabó:
Ik twijfel even om het antwoord te geven. Ik ben even aan het kauwen op het antwoord.
Deze pak ik even in tweede termijn mee om er het juiste antwoord op te geven, want
u vond dat ik daarnet heel erg stellig was.
De voorzitter:
Dan heeft u nog een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
Ja, volgens mij had ik er nog eentje. Wat ik wel wat ingewikkeld vind aan die discussie
over illegaal, verboden, of het klopt of niet en of er al voldoende overzicht is,
is dat wij het niet kunnen controleren omdat er maar een paar procent in de registers
staat. Maar wat als een systeem bijvoorbeeld 100 hits geeft en er maar 5 aan een mens
voorlegt? Dan is het een combinatie van een geautomatiseerd besluit en een besluit
dat aan menselijke toetsing voorgelegd wordt.
Stel dat iemand met betrekking tot box 3 bezwaar heeft gemaakt. Ook allerlei mensen
hebben bezwaar gemaakt. In het systeem zit een algoritme en zegt: van de 100 bezwaren
die ingediend zijn, heb ik er 5 voorgelegd om af te wikkelen, want de rest voldeed
niet aan de voorwaarden. Hoe gaat u in vredesnaam toetsen of hoe kan de overheid toetsen
als nog niet bekend is wat die dingen allemaal doen of ze daarmee wel aan deze eis
voldoen? Dat lijkt me namelijk heel ingewikkeld. Het is niet zo dat een systeem alleen
maar iets voorlegt of niet. Er zitten ook altijd tussenselecties in een algoritme
die bepaalde mensen eruit pikken. Hoe denkt de Staatssecretaris dat dit probleem opgelost
moet worden? Ik weet niet of hij dat zo even kan beantwoorden.
De voorzitter:
U heeft zo’n lange vraag gesteld dat de Staatssecretaris voldoende tijd heeft gehad
om er even over na te denken, dus het woord is aan de Staatssecretaris.
Staatssecretaris Szabó:
Weet u, het Algoritmeregister moet meer worden gevuld en dat moet ook sneller gaan.
Zoals ik aan het begin heb aangegeven, zal ik dit gewoon nog een keer naar voren brengen
op het niveau van de ministerraad. Zo kan ik de volgende keer als we hier zitten op
basis van nog meer informatie met u het debat voeren.
De voorzitter:
U mag een korte vervolgvraag stellen, meneer Vermeer.
De heer Vermeer (BBB):
Wanneer komt de Staatssecretaris op het moment dat hij zegt «vanaf die datum mag een
algoritme dat niet in het register staat, niet meer gebruikt worden»?
Staatssecretaris Szabó:
Er zitten nog wat antwoorden in dit mapje waarin ik hierop terugkom. Ik heb helemaal
aan het begin aangegeven hoe het wat betreft de toegankelijkheid helaas gaat in de
geschiedenis op dit soort dossiers in de Tweede Kamer. Ik ben wel van plan om rond
de zomer ... Het register zit in een versnelling. Het is nog niet een hele grote versnelling,
maar het vullen ervan zit wel in een versnelling. Vorig jaar hebben we ook brieven
gezonden naar de overheidsorganisaties om voor de zomer te meten of dat effectief
is, dan wel of het een eenmalige versnelling was. Dan wil ik een afweging maken hoe
we dit verder gaan oppakken met wetgeving dan wel op andere wijze.
Ik wil wel duidelijk erbij zeggen dat wetgeving niet altijd betekent dat er dan ook
geluisterd wordt. Het moet dus een combinatie zijn van wetgeving, brieven, mensen
erop aanspreken en ook zenden van mijn kant, natuurlijk met steun van de Tweede en
waar nodig ook de Eerste Kamer. Maar stel dat u mij hier vier jaar laat zitten en
als de kiezer dat wil misschien acht of twaalf jaar. Als ik hier over twaalf jaar
zit en moet zeggen dat we van 2% naar 4% zijn gegaan, dan hebben we echt iets verkeerd
gedaan. Dat is in ieder geval mijn instelling op dit dossier. Ik wil gewoon resultaat
zien.
Ik heb nog een vraag over het pakketje verantwoorde inzet AI en algoritmen, en daarna
ga ik over naar transparantie van het register. Kan het kabinet uitleggen hoe Nederland
aan de rest van de verordening gaat voldoen, wanneer moeten welke stappen worden gezet
en hoe kan ik als Kamerlid erop vertrouwen dat dit lukt? «Ik» is mevrouw Kathmann
van GroenLinks-PvdA. Het kabinet is al bezig met de voorbereiding van de implementatie
en uitvoering van de AI-verordening. Er wordt gewerkt aan een uitvoeringswet. Daarnaast
moet elk ministerie in kaart brengen welke stappen nodig zijn voor compliance met
de verordening voor de betreffende sector. Ik zal deze vragen doorgeleiden naar de
Minister van Economische Zaken, die de implementatie van de AI-verordening coördineert.
Voorzitter. Dan ga ik naar het pakket transparantie en registratie. Een vraag van
mevrouw Koekkoek. Is de Staatssecretaris het met haar eens dat het Algoritmeregister
een essentiële rol speelt voor het inzichtelijk maken voor burgers waarom een bepaalde
beslissing is genomen? Het Algoritmeregister speelt inderdaad een grote rol in transparantie
richting burgers. Ik spoor daarom alle instanties binnen de rijksoverheid en onze
medeoverheden aan om de informatie over het gebruik van algoritmes te registreren
in het Algoritmeregister. Dit sluit aan op mijn woorden uit het vorige blokje.
Mevrouw Kathmann vraagt: wat is het grote plan van de overheid met het Algoritmeregister
en hoe vullen we dat dan in? Uw Kamer heeft in de motie-Dekker-Abdulaziz uit juni
2023 gevraagd om alle hoogrisico-AI-systemen op te nemen. Daarom en vanwege de aankomende
AI-verordening is nu de focus daarop gelegd. De afspraak met departementen is expliciet
dat het ten minste hoogrisico-AI-systemen betreft, maar veel organisaties publiceren
al meer. Ik zal mij verder inspannen voor het registreren van alle relevante algoritmes
en maak daarvoor afspraken binnen de overheid. Dit sluit ook aan bij wat ik hiervoor
heb gezegd. Ook wil ik voor de zomer de balans opmaken en dit dossier actief bij de
Nederlandse Digitaliseringsstrategie betrekken.
Dan een vraag van de heer Ergin van DENK. Vorig jaar bleek dat slechts 5% van de systemen
opgenomen was in het Algoritmeregister. Hoeveel procent van de algoritmen is nu opgenomen
in het Algoritmeregister? Het is niet bekend wat het totale aantal impactvolle algoritmen
binnen de overheid is. Ik zie dat overheidsorganisaties hard werken aan het vullen
van het register met als eerste stap de analyse van algoritmes binnen hun eigen organisaties.
Sinds 1 januari 2024 is het aantal algoritmes met 170% toegenomen en het aantal organisaties
met 200%.
Dan nog een vraag van de heer Ergin. Kan de Staatssecretaris in mei of juni een update
geven van het percentage algoritmen dat dan is ingevuld in het Algoritmeregister?
Op Verantwoordingsdag, de derde woensdag in mei, zal middels de Jaarrapportage Bedrijfsvoering
Rijk een update worden gegeven over de voortgang en het vullen van het register door
de departementen. Departementen zullen hier rapporteren hoeveel hoogrisico-AI-systemen
en hoeveel impactvolle algoritmes zij in 2024 hebben geregistreerd en hoeveel zij
nog voor het eind van 2025 verwachten te registreren.
Een vraag van mevrouw Koekkoek, de heer Ergin van DENK en mevrouw Kathmann van GroenLinks-PvdA.
Is de Staatssecretaris het ermee eens dat iedereen inzage moet kunnen hebben in informatie
en algoritmen die de overheid over ze gebruikt en waardoor ze kunnen worden geraakt?
Dat is eigenlijk waar we het net over hadden, maar deze vraag lag er nog.
Hoe verhoudt het zich met de motiveringsplicht in de Algemene wet bestuursrecht dat
de Staatssecretaris niet de voorstellen van de Open State Foundation wil overnemen?
Het huidige motiveringsbeginsel ziet niet expliciet op algoritmische besluitvorming.
Ik ben het met u eens dat transparantie belangrijk is en het kabinet wil zich inzetten
voor transparantie en rechtsbescherming bij het gebruik van algoritmes. Een van de
manieren om dit te bereiken is bijvoorbeeld via het register. Ook onderzoek ik zoals
aangegeven de mogelijkheden voor wetgeving die hierbij aansluiten met de internetconsultatie
algoritmische besluitvorming en de AMvB. Ik kom daar binnenkort bij uw op terug; «binnenkort»
is in dit geval eind Q1, begin Q2.
Is de Staatssecretaris het ermee eens – een vraag van mevrouw Koekkoek en de heer
Ergin – dat de positie van burgers ten opzichte van de overheid moet worden versterkt
door het register wettelijk te verplichten? Dat is eigenlijk dezelfde vraag. Dan is
het antwoord ook hetzelfde: ik kijk ernaar en kom er rond de zomer op terug.
De heer Buijsse vroeg of er gesteld kan worden dat de informatie die bijgehouden wordt
in het Algoritmeregister afdoende is of zijn er verbeterpunten? Het Algoritmeregister
bevat velden die ertoe dienen de transparantie over waarborgen te vergroten. De verplichte
velden bieden de belangrijkste informatie. Daarnaast zijn er niet-verplichte velden,
zoals een veld om te verwijzen naar een uitgevoerde mensenrechtstoets. Deze niet-verplichte
velden worden niet altijd ingevuld. Een belangrijk punt van verbetering is daarom
om de organisaties te vragen meer velden in te vullen en meer informatie ter beschikking
te stellen. Ik ga mij daar ook voor inzetten, want het zou zonde zijn als de software
die is gebouwd, als applicatie niet volledig wordt gebruikt.
Voorzitter. Nog een vraag van de heer Buijsse. Die heb ik ook al beantwoord, namelijk
wat de rol van de Nederlandse Digitaliseringsstrategie in dezen is. Daar hoef ik dus
niet meer op in te gaan, met uw welnemen.
Hoe kijkt de Staatssecretaris aan tegen het vijfsterrenmodel? Het vijfsterrenmodel
is een ambitieuze manier om te kijken naar de transparantie van algoritmes. Het is
een interessant model. Ik betrek het ook bij de brief van april, waarin ik inga op
de motie-Omtzigt/Six Dijkstra over de wetenschappelijke standaard.
Dan een vraag van de heer Vermeer. Hoe verhoudt het Algoritmeregister – ik begin het
weer goed uit te spreken – zich tot de diverse registers die al door gemeentes zijn
gemaakt? Het Algoritmeregister heeft geen relatie met andere registers. Het wordt
niet vanuit de gemeentelijke registers gevuld.
Dan nog een vraag van de heer Vermeer. Is de benodigde capaciteit aanwezig en wie
bepaalt wat hoog risico is en wat de voorwaarden hiervoor zijn? Het kost inderdaad
tijd en capaciteit om te analyseren welke systemen er zijn en de benodigde informatie
te verzamelen en af te stemmen. Inmiddels is een inventarisatie bij departementen
voor zover ik weet afgerond. Ik ga ervan uit dat de departementen zich nu klaar maken
voor de volgende fase. Voor het bepalen van hoogrisico-AI-systemen heb ik een handreiking
geschreven voor het inventariseren, identificeren en classificeren van AI-systemen.
Daarmee wil ik overheidsorganisaties helpen AI-systemen juist in te schatten.
De heer Vermeer (BBB):
Wat is de precieze naam van die handreiking? Weet de Staatssecretaris dat zo of kan
hij dat anders in de tweede termijn even melden, zodat ik die er even bij kan zoeken?
Staatssecretaris Szabó:
Ik ga u in de tweede termijn antwoord geven op de vraag wat de naam van de handreiking
is.
Dan is er nog een vraag van de heer Vermeer. Een algoritme is volgens de BBB te omschrijven
als een oplossing voor een probleem dat op een wiskundige manier is beschreven. Gaat
het register wel zorgen voor de nodige transparantie? Ja, het register is een belangrijk
middel om de benodigde transparantie te regelen. We zijn op dit moment met de internetconsultatie
Algoritmische besluitvorming en de Awb aan het analyseren welke aanvullende maatregelen
nodig zijn om onder andere de transparantie te verbeteren. Aan het eind van dit kwartaal
of begin volgend kwartaal wordt deze analyse met uw Kamer gedeeld.
De heer Valize vroeg hoe het mogelijk is dat het zo ingewikkeld is een simpel algoritme
te beschrijven en aan het register toe te voegen. De eerste stap in het vullen van
het register is het in kaart brengen van de gebruikte algoritmes. Dit neemt best wel
veel tijd in beslag, net als het begrijpelijk en correct beschrijven van het algoritme.
Maar ook hiervoor geldt dat ik wat specifieker naar dit onderwerp ga kijken zodat
ik dit ook kan versnellen, daar waar we meer handvatten kunnen geven aan degenen die
het register moeten vullen. Ja? Oké.
Er is aangegeven dat het Algoritmeregister in 2025 up-to-date moet zijn. De heer Valize
vroeg wat er van de kant van de Kamer nodig is om te bevorderen dat we algoritmes
ook daadwerkelijk in het register hebben staan. Dank voor deze vraag. We willen ervoor
zorgen dat er ook toezicht komt bij de lokale overheden. Als de landelijke politiek
dit ook doorgeeft aan de lokale politiek, staan we samen sterk. Vooral uw controlerende
taak en uw adviserende taak aan mij zorgen ervoor dat we dit vraagstuk goed op de
inhoud kunnen behandelen.
Voorzitter. Dan mijn blokje overig. Ik heb een tweetal overige vragen. De vraag van
de heer Ergin van DENK ging over Motie#21 en het ADR-onderzoek. Hij noemde drie punten
waaruit blijkt dat een aantal zaken niet goed geregeld zijn. Bij BuZa is niet gekeken
naar etniciteit en geboorteplaats. U heeft aangegeven dat er bij Binnenlandse Zaken
geen toets is uitgevoerd naar volledigheid en juistheid. Bij VWS is non-discriminatie
niet uitgevraagd. Bij OCW zijn niet alle organisaties betrokken. Kijkend naar het
rapport van de ADR vraagt u: is de Staatssecretaris tevreden met de operatie voor
het herstellen van datavervuiling? De ADR beschrijft dat departementen waarborgen
hebben getroffen voor een accurate en volledige uitvoering van Motie#21. De toetsing
op oneigenlijk gebruik is verschillend uitgevoerd. Dit is in lijn met de ruimte voor
departementen om een eigen aanpak te kiezen en daarover te rapporteren. Ik zet mij
in voor meer transparantie over algoritmes in brede zin, zoals via het Algoritmeregister,
en bij het voldoen aan nieuwe wet- en regelgeving, zoals de AI-verordening, via het
Algoritmekader.
De heer Ergin (DENK):
Ik kan nog een aantal voorbeelden noemen die passen in het beeld dat er op dit moment
mogelijk nog sprake is van vervuilde data bij diverse ministeries, even los van alle
algoritmediscussies die we net hebben gevoerd. Separaat daarvan is er op dit moment
sprake van datavervuiling die niet is aangepakt. De regering heeft vervolgens aangegeven
dat zij Motie#21 heeft afgedaan. Vervolgens heeft DENK gedacht: laten we dat even
extern laten checken door de ADR. De ADR kwam met een waslijst aan zaken die niet
zijn uitgevoerd. Ik hoor hier van de Staatssecretaris dat hij zich gaat inzetten om
datavervuiling tegen te gaan, maar kan hij op z’n minst aangeven wat hij daarmee bedoelt?
Wat gaat hij nou precies doen? Het is namelijk al gebeurd. Onderzoeken zijn uitgevoerd
en die data zingen nog steeds rond op verschillende departementen. Ik wil gewoon van
de Staatssecretaris horen wat hij gaat doen om die operatie wel te laten slagen.
Staatssecretaris Szabó:
Dank u voor die vraag. Ik heb die lijst niet voor me en ik kom er in tweede termijn
op terug.
De voorzitter:
Graag uw microfoon aanzetten.
Staatssecretaris Szabó:
De laatste vraag is van de VVD. Wie ziet toe op het gebruik van ontwerpprincipes van
digitale overheidsdiensten? Er is geen toezicht, maar ik stimuleer organisaties met
kennis en instrumenten om de transformatie door te maken naar werken vanuit klantbeleving
in plaats van de manier zoals het was en de manier waarop we dat als overheid zouden
organiseren. Specifiek voor de digitale diensten is het NL Design System ontwikkeld,
waarmee overheden eenvoudiger en sneller toegankelijkheid kunnen ontwikkelen op een
inclusieve en gebruikersvriendelijke manier. Vorige week hebben we hier ook al over
gesproken. Ik faciliteer een groot netwerk van overheidsprofessionals uit alle lagen
van de overheid die met elkaar aan deze transformatie en mensgerichte dienstverlening
werken.
Voorzitter. Dat waren de antwoorden op de vragen.
De voorzitter:
U heeft toch nog een interruptie van de heer Buijsse van de VVD.
De heer Buijsse (VVD):
Ik vind in alle eerlijkheid deze reflectie toch wat summier. Ik had er graag iets
meer bij stil willen staan. Ik ga er daarom ook maar gewoon om vragen. Mijn eerdere
vraag was namelijk: zijn die ontwerpprincipes voor diensten, bijvoorbeeld bij de Belastingdienst,
dezelfde als bij het Ministerie van Financiën, het CBR en het waterschap, en op lokale
schaal ook bij de gemeente Amsterdam of kleinere gemeentes? Dat zijn wel zelfbewuste
gemeentes, zoals de gemeente Boekel. Dat is mijn eigen gemeente, meneer Vermeer! Dit
is namelijk zo’n elementaire en fundamentele zaak: hoe kijk je aan tegen de manier
waarop wij diensten ontwerpen, ook gezien de achtergrond dat we al heel lang onderweg
zijn met het ontwikkelen van digitale diensten en we ook niet zomaar de afslag van
greenfield kunnen nemen? Het is er al wel allemaal. Ik zou daar toch met de Staatssecretaris
even wat meer over willen uitweiden en ik zou willen vragen om daar iets verder op
te reflecteren.
Staatssecretaris Szabó:
Mijn eerste reactie is: ik denk niet dat binnen de overheid alle ontwerpprincipes
volledig uniform en gestandaardiseerd zijn, omdat we eigenlijk, vanaf het begin toen
we begonnen met digitaliseren, zeiden: iedereen kan zijn eigen gang gaan. Dat gaat
over het Rijk, gemeenten, provincies, waterschappen en zbo’s. Bij het Rijk zijn dat
ook de ministeries. Dat moeten we strakker gaan trekken. Vandaar ook dat ik mijn inleiding
aangaf dat ik, als het gaat om standaardiseren en ontwerpprincipes, ik niet alles
wettelijk ga opleggen of zo. We moeten in ieder geval er met elkaar over in discussie
gaan hoe we dat gaan verbeteren. Het mooie is dat we binnen de NDS, die gedragen wordt
door verschillende overheidslagen, gewoon een mooi podium hebben om dit verder met
elkaar te bespreken. Er zijn natuurlijk ook andere podia, andere overlegorganen binnen
de overheid. Maar dit is dan weer een niveautje hoger en iedereen zit erbij.
De voorzitter:
U heeft nog een korte vervolgvraag van de heer Buijsse.
De heer Buijsse (VVD):
Dus als ik het goed begrijp, gaan we in de NDS echt wel een stevige paragraaf terugzien
over die ontwerpprincipes. Ook mensen die daarmee bezig zijn in de buitenwereld moeten
zich daarin herkennen. Ik heb de laatste tijd een aantal contacten opgedaan die daar
gewoon bij betrokken zijn. Het gaat om een fundamentele zaak en we moeten als overheid,
decentraal en centraal, toe naar meer uniformering van die ontwerpprincipes. Het zou
mij een lief ding waard zijn als ik dit terug kan lezen in de NDS.
Staatssecretaris Szabó:
Ik ben even aan het nadenken. Waarom? Ik heb tien kantjes om vol te schrijven. Dat
heb ik beloofd en die worden de Nederlandse Digitaliseringsstrategie. Daar, over dat
aantal van tien kantjes, wil ik niet echt overheen gaan. Ik zeg u echter toe dat ik
hierover ga nadenken, in de zin dat dit valt onder standaardisering. Dat betekent
niet dat ik vier of vijf alinea’s over dit onderwerp kan opschrijven. Daarnaast –
u spreekt ook met mensen in het veld, gaf u aan – vind ik het wel fijn om de kennis
op dit dossier te delen. Dat kan een keer met een kop koffie.
De voorzitter:
Mooi, dus nog een kopje koffie. Dat was het einde van de eerste termijn van de Staatssecretaris
Digitale Zaken, de heer Zsolt; excuseer: de heer Szabó. Dan gaan we door naar de Staatssecretaris
van Justitie en Veiligheid, de heer Struycken, voor zijn eerste termijn.
Staatssecretaris Struycken:
Voorzitter. Allereerst dank aan de commissie voor de uitnodiging voor dit debat. Het
is de eerste keer dat ik bij uw commissie aantreed in verband met het gegevensbeschermingsrecht.
Het is een erg belangrijk grondrecht, dat bijdraagt aan de rechtsbescherming van burgers
en ook bedrijven.
Het is een bijzondere dag vandaag. Het is nog niet genoemd, en ik weet ook niet zeker
of u dat allemaal op de radar hebt – ik had het niet, maar het is me verteld – maar
het is vandaag de Dag van de Gegevensbescherming. Op 28 januari 1981 nam de Raad van
Europa het zogenaamde verdrag nummer 108 aan. Dat was het eerste juridisch bindende
internationale instrument inzake gegevensbescherming. 28 januari is dus de Dag van
de Gegevensbescherming, ook wel de Dag van de Privacy genoemd, met als belangrijkste
doel: bewustmaking van privacy en gegevensbescherming. Een mooi gesternte voor dit
debat.
Ik heb een beperkt aantal vragen te beantwoorden. De eerste was dan ook wel een heel
moeilijke. Eigenlijk lag er een thema ten grondslag aan de vraag van de heer Six Dijkstra,
en ook aan de vraag van de heer Ergin. Dat gaat eigenlijk over het mensbeeld en hoe
dat zich verhoudt tot risicoselectie bij de inzet van algoritmes. Gedachtewisselingen
over het mensbeeld zijn altijd complex, want wat is het mensbeeld? Die vraag is ook
gesteld aan de regering bij de Algemene Politieke Beschouwingen. Als u het mij vraagt,
ligt het volgende besloten in het denken van dit kabinet: de adviezen van de parlementaire
enquêtecommissie Fraudebeleid en Dienstverlening, en eigenlijk ook het perspectief
van de Staatscommissie rechtsstaat. Dat zijn allebei rapporten die door het kabinet
in algemene zin worden omarmd.
Voor mij betekent het dat de overheid in al haar handelen, dus ook bij de inzet van
algoritmes, als uitgangspunt moet nemen dat de overheid naast de burger staat in plaats
van tegenover de burger. Daarom is het van belang dat de inzet van algoritmes dus
altijd ten dienste staat van de uitvoering van de maatschappelijke opgave van de uitvoeringsorganisaties.
Dat we zeggen dat het gaat om de uitvoering van een maatschappelijke opgave, zegt
op zich nog niks over het mensbeeld. Maar als de overheidsorganisatie zich laat leiden
door dit mensbeeld, wordt dat gereflecteerd in de wijze waarop zij uitvoering geeft
aan haar maatschappelijke opgave. Dat reflecteert dan ook dit mensbeeld, het beeld
van de overheid die naast de mens staat.
Er zijn voorbeelden van de inzet van algoritmes of AI-systemen denkbaar in het kader
van de dienstverlening aan mensen. Ik kan me voorstellen dat algoritmes worden gebruikt
om de personen te identificeren die mogelijk moeite hebben met het betalen van een
boete of anderszins het risico lopen dat schulden te hoog oplopen. Dan kan een algoritme
als middel worden ingezet om die mensen snel te identificeren, met als doel om hen
te helpen schuldenoploop te voorkomen. De schuldenproblematiek staat vrij scherp op
de radar van dit kabinet. We trachten daar op een nieuwe manier naar te kijken. Dan
kunnen algoritmes daarbij functioneel zijn ter ondersteuning van een maatschappelijke
opgave die erop gericht is om mensen te helpen, in dit geval mensen die in de schulden
zitten of dreigen erin te komen. Dan zijn het helpende technieken.
Maar er zijn natuurlijk ook opgaven die meer zitten op het terrein van de rechtshandhaving.
Die dragen simpelweg bij aan het opsporen van criminelen. Dan staat de overheid natuurlijk
niet naast de crimineel, maar ertegenover. In beide gevallen is het goed denkbaar
dat algoritmes en AI worden gebruikt daar waar ze aantoonbaar helpen. Ik voeg er wel
aan toe dat ieder ministerie uiteraard zelf verantwoordelijk is om af te wegen of
en waarvoor algoritmes worden ingezet en hoe ze vervolgens worden gebruikt. Voor beide,
of het nou is met het oog op de rechtshandhaving, de dienstverlening of de hulpverlening,
geldt dat we het goed moeten regelen. Dat moet altijd, want dat verlangt het legaliteitsbeginsel.
De overheid moet haar handelen altijd baseren op deugdelijke, duidelijke wettelijke
voorschriften. Ook de AVG is op dat punt heel duidelijk: de verwerking van persoonsgegevens
moet op een grondslag berusten. Of de intentie van het betreffende overheidsonderdeel
nu is om de burger te helpen of te bestraffen, die duidelijke grondslag moet er zijn.
Vooral voor bestraffen is het heel belangrijk dat er een goede grondslag is en dat
de AVG wordt nageleefd. Daarbij is het vooral belangrijk dat dat onderdeel van het
primaire proces is en niet iets wat er nog bij gedaan moet worden. We moeten waken
voor de dominantie van de doelstelling, zoals het wel wordt genoemd, waarbij het accent
ligt op de doelmatige uitvoering van primaire processen, en de aandacht voor het treffen
van een zorgvuldige regeling die eraan ten grondslag ligt, er soms bij inschiet. In
antwoord op de vragen van u beiden – u stelde mij allebei in zekere zin een reflectieve
vraag – zeg ik: het is dus van belang dat het vraagstuk dat u centraal stelt, vanaf
een vroegtijdig stadium deel uitmaakt van het proces, dus dat van het begin af aan
het goede gebruik van die algoritmen is geborgd en dat niet pas achteraf wordt geconstateerd
dat daarmee in het proces onvoldoende rekening is gehouden.
Het mensbeeld dat ik verwoordde ... Nee, ik ga het anders zeggen. Een mens die de
ruimte moet krijgen om zich te ontplooien, maar ook een mens die kwetsbaar is en bescherming
en ondersteuning verdient: zo zou ik persoonlijk het mensbeeld verwoorden. Dat moet
centraler komen te staan en beter gereflecteerd worden in de wijze waarop de overheid
voorspellende algoritmes gebruikt. Als u daar meer over wilt weten, denk ik daar graag
een keer met u over door, in een ander kader.
Dat brengt mij op de vraag van de heer Six Dijkstra die ziet op het onderwerp Preselect
Recidive. Hij noemde de film Minority Report. Die ken ik nog niet. Ik kijk weinig
naar films, maar misschien is dit er een die ik kan aanbevelen bij mijn echtgenote.
In het artikel dat deze problematiek centraal stelt, het artikel uit het tijdschrift
Follow the Money, een onderzoeksblad, is aangegeven dat politie en justitie al geruime
tijd een algoritme gebruiken om te voorspellen of jongeren in de criminaliteit belanden,
meer in het bijzonder of er een risico op recidive is en zo ja, hoe groot dat risico
is. In het artikel staat dat de voorspelling van het algoritme inzake de kans op criminaliteit
en recidive er vaak naast lijkt te zitten. De voorspelling is wat dat betreft dus
gewoon geen deugdelijke en de gevolgen zijn uiteraard groot. Dat noemen we dan een
risicotaxatie-instrument, maar in de uitwerking pakt het niet goed uit. Uit eerder
onderzoek dat is uitgevoerd in opdracht van mijn ministerie, Justitie en Veiligheid,
is al gebleken dat het instrument Preselect Recidive op een aantal punten verbeterd
moet worden. Daarom is aan het einde van 2024 een verbetertraject gestart. Dat moet
in de loop van 2025 leiden tot een betere versie van het instrument. Het moet dan
een betere voorspellende waarde blijken te hebben.
Het gaat echter niet alleen om het instrument, maar ook om hoe het gebruikt wordt.
Ik wil benadrukken dat het instrument niet gebruikt wordt en zeker ook niet gebruikt
mag worden voor automatische besluitvorming over het vervolgtraject voor een jeugdige
verdachte. Dit instrument, dit algoritme, moet worden ingezet als advies bij een besluit
naast andere informatie over diezelfde jongere. Met andere woorden, het besluit wordt
dan genomen door het Openbaar Ministerie in overleg met de ketenpartners. Daarmee
is er – of die moet er zijn – een substantiële menselijke tussenkomst, zoals voorgeschreven
door de AP.
Naar aanleiding van het verzoek van de vaste Kamercommissie voor Justitie en Veiligheid
zal ik een schriftelijke reactie op dit artikel van Follow the Money aan de Kamer
doen toekomen voorafgaand aan het debat dat ik zal voeren over de bescherming van
persoonsgegevens en digitale grondrechten aanstaande 6 februari. Ik zal dus, zoals
mij is verzocht, op korte termijn met een reactie naar de Kamer komen.
Dat brengt mij bij de laatste vraag die ik moet beantwoorden. Die vraag heb ik overigens
al eerder mogen beantwoorden, onder andere in het debat van uw Kamer met het kabinet
op 15 januari inzake de parlementaire enquête Fraudebeleid en Dienstverlening. Die
vraag betreft de financiering van de Autoriteit Persoonsgegevens. De Autoriteit Persoonsgegevens
heeft in het kader van de kabinetsformatie inderdaad gevraagd om veel meer budget,
volgens mij 111 miljoen, terwijl ze dit jaar een budget heeft van 49 miljoen. Ze vragen
dus twee keer zoveel dan ze al krijgen, waarbij ook relevant is dat het budget dat
ze krijgen, die 49 miljoen, een verdubbeling is ten opzichte van wat ze vijf jaar
geleden hadden.
Ik heb in het plenaire debat al gewezen op een internationale vergelijking die in
dit geval een referentiepunt kan zijn. AVG-toezichthouders met hetzelfde takenpakket
in andere EU-lidstaten hebben substantieel minder budget. Het budget dat we in Nederland
aan de AP toekennen, is veel omvangrijker dan het budget in andere, vergelijkbare
landen. We zitten dus in de Europese top. En sinds dat onderzoek van vijf jaar geleden
is het budget dus verdubbeld. Ik gaf al eerder aan dat ik denk dat een budget moet
worden vastgesteld op basis van de taken die een instantie heeft. Als nieuwe of extra
taken worden toegekend, moet er uiteraard extra budget komen, maar leidend zijn de
taken die een instantie of autoriteit heeft.
Ik merk nog op dat de Autoriteit Persoonsgegevens een evaluatie laat uitvoeren naar
het eigen functioneren. Dat onderzoek is klaar, maar de Autoriteit Persoonsgegevens
heeft dat nog niet met mijn departement gedeeld. Ik weet dus nog niet welke conclusies
dat behelst, maar ik ga ervan uit dat dat ook een reflectie geeft op de taken die
de autoriteit heeft, het daarvoor benodigde budget en de taken die zij wenst te krijgen.
Dan kan het ook gaan over het daarvoor benodigde budget als wij – u en wij – ervoor
kiezen om die nieuwe taken inderdaad bij de autoriteit neer te leggen.
De heer Six Dijkstra (NSC):
Eigenlijk nog op het vorige punt, Preselect Recidive. Ik raad de film Minority Report
overigens van harte aan. De Staatssecretaris zegt dat het algoritme een advies is.
Daarmee wordt ook voldaan aan de eis dat pas na betekenisvolle menselijke tussenkomst
de gevolgen voor betrokkenen van de selectie als risico in werking treden. Dat is
echter slechts een van de vijf algemene eisen die de AP stelt aan risicoselectiealgoritmen.
De andere zijn dat het risico op discriminatoire verwerking is onderzocht en ondervangen,
dat periodiek wordt onderzocht of zich desalniettemin discriminatoire verwerkingen
voordoen, dat de selectie als risico niet automatisch ook andere aanmerkelijke gevolgen
heeft en dat de risicoselectie voldoende kenbaar is voor betrokkenen. Ik zou graag
zien dat de Staatssecretaris daarop ingaat. Ik snap dat hij dat misschien niet allemaal
paraat heeft, maar dan wil ik wel graag dat dit onderdeel uitmaakt van een kabinetsreactie
op het artikel van Follow the Money, omdat dit direct doorvertaalt naar hoe wij met
z’n allen omgaan met risico’s met een grote impact voor burgers.
Staatssecretaris Struycken:
U wijst terecht op die andere vereisten. Die moeten dus ook onderdeel uitmaken van
enerzijds de analyse van wat dit nu doet en anderzijds het verbetertraject. Ik denk
dat dit allemaal kernelementen zijn in het verbetertraject. Ik kan daar nu niet in
detail op reflecteren. Ik weet ook niet of dat lukt in de brief die we al binnen enkele
dagen moeten schrijven, maar daar zal zeker in staan dat het evident is dat op al
deze punten ook dit instrument moet voldoen aan de eisen die worden gesteld. Dat is
evident. Als dat niet blijkt te kunnen, moet het niet worden gebruikt.
Mevrouw Koekkoek (Volt):
De discussie over de Autoriteit Persoonsgegevens en welk budget daarbij hoort, hebben
we inderdaad plenair eerder gevoerd. Mijn afdronk, juist ook van die discussie, was
dat we moeten voorkomen dat het een welles-nietesdiscussie wordt tussen de AP en het
kabinet, want uiteindelijk wil je allemaal hetzelfde. Je wil goed toezicht. Ik begrijp
dat ieder orgaan vindt dat het veel budget nodig heeft en ik begrijp dat het kabinet
daar zuinig mee wil omgaan. Vandaar dat ik vroeg: kan uiteengezet worden waar die
inschatting van het kabinet vandaan komt? Ik begrijp nu dat de AP een eigen onderzoek
doet, maar om dit als Kamer goed te kunnen wegen, zouden we ook van het kabinet moeten
horen op basis waarvan het de conclusie trekt dat het budget nu nog niet omhoog hoeft.
Daar zoek ik een beetje naar, want voor mij blijft het nu steken in welles-nietes
en ik wil uit die impasse komen.
Staatssecretaris Struycken:
Wat ik bedoelde te zeggen, is dat het uiteindelijk ook gaat over de vraag welke taken
we willen dat de Autoriteit Persoonsgegevens heeft. Daar heeft de autoriteit zelf
een duidelijk beeld van. Dat is een groeimodel. Zij ziet voor zichzelf additionele
taken weggelegd. Er zit dus een keuze in: welke taken leggen we bij de AP? Er zit
ook een analyse in: hoeveel geld heeft de AP nodig voor de taken die zij heeft? Die
analyse kun je op verschillende manieren maken. Je kunt een streefgetal hanteren,
maar je kunt ook kijken hoeveel uren het onderzoek kost. Dat bedoelde ik impliciet
toen het ging over de bekostiging. Het bekostigingsmodel is onderdeel van frequent
overleg met de AP. Wellicht kan de evaluatie die de AP verricht daar op beide punten
meer inzicht in geven. Maar het gaat ook om de taakopvatting van de AP. Daar is de
AP natuurlijk vrij in. Zij heeft een grote mate van zelfstandigheid, maar dat ontslaat
ons allen er niet van om daar in deze Kamer over te spreken. Taken en toezicht zijn
natuurlijk schaalbaar. Je kiest hoeveel tijd je aan bepaald toezicht wilt besteden.
Dat zou onderdeel moeten zijn van de brede dialoog met de Autoriteit Persoonsgegevens.
Ik heb al eerder gesignaleerd bij de Autoriteit Persoonsgegevens dat we een maatschappelijk
probleem hebben dat ik «handelingsverlegenheid» noem. Dat weet u, want dat heb ik
eerder vermeld. Heel veel mensen, organisaties en personen zijn bang dat ze de regels
inzake gegevensbescherming schenden en doen daardoor allemaal dingen niet. Mensen
doen minder dan wellicht mogelijk is. We zouden in Nederland de focus kunnen verleggen
naar algemene advisering over wat wél kan in plaats van handelingsverlegenheid te
creëren door straffen, boetes en dergelijke. De autoriteit zou daar een rol in kunnen
hebben. Dat is een vrij principiële discussie over of een visie, zoals u wilt, op
de wijze waarop de AP haar taken in de toekomst invult. Dit was een lang antwoord
om aan te geven dat er heel veel factoren zijn die beïnvloeden hoeveel budget de AP
nodig heeft. Dat is de dialoog die we voortdurend moeten voeren en die zal ook onderdeel
zijn van mijn gesprekken met de AP in de komende tijd.
De voorzitter:
Er is nog een aanvullende vraag van mevrouw Koekkoek.
Mevrouw Koekkoek (Volt):
Ik waardeer dit zorgvuldige antwoord. Tegelijkertijd denk ik dat het voor de Kamer
nuttig is om onderdeel te zijn van dat gesprek, omdat wij het budgetrecht hebben.
Laat ik het herformuleren: ik zou graag een manier zoeken waarop wij als Kamer onderdeel
kunnen zijn van dat gesprek. Ik kan me voorstellen dat het kabinet op dit moment zegt:
wij zijn in gesprek met de Autoriteit Persoonsgegevens en wij moeten samen zoeken
naar wat een goed takenpakket is en naar wat wij vinden passen bij Nederland. Maar
dat kan niet leiden tot een conclusie zonder dat de Kamer daarbij betrokken wordt.
Vandaar dat ik verzoek om een schriftelijk overzicht. Dat is mijn suggestie om de
Kamer er op een goede manier bij te betrekken. Het kan ook in de vorm van scenario’s
of opties, in de zin van: «Als de AP deze drie taken krijgt, dan schatten wij dit
budget in. Optie twee leidt tot dit budget.» Dan is de Kamer meer geïnformeerd en
meer betrokken bij dat gesprek. Volgens mij is dat nuttig en ook nodig.
Staatssecretaris Struycken:
Ik herken wat mevrouw Koekkoek zegt. Het is evident dat de Kamer er belang bij heeft
dat wij wat dat betreft samen verstandige keuzes maken. Trouwens, niet alleen de Kamer
heeft daar belang bij; dat hebben wij allemaal. De Kamer moet ook het inzicht krijgen
om die keuzes op gezette tijden te kunnen maken. Het is dus niet voor niks dat ik
het accent leg op een voortdurende dialoog over de rol en taken van de autoriteit.
Nogmaals, dat is primair, maar niet alleen, haar eigen domein. Wij gaan daar ook over,
des te meer omdat wij ook gaan over de financiering. Ik herken en onderschrijf de
behoefte dus en ik zal mij ervoor inzetten om daar adequaat en op de juiste momenten
de benodigde informatie over te verschaffen, maar ik doe geen toezegging om dat concreet
in een brief naar de Kamer te sturen.
Mevrouw Kathmann (GroenLinks-PvdA):
Ook ik wil de Staatssecretaris bedanken voor zijn zorgvuldige antwoord, maar dit roept
ook vragen op. Ik vind eigenlijk dat wij als Kamer niet meer zonder schriftelijke
brief kunnen. Een brief is natuurlijk altijd schriftelijk. Ik bedoelde «zonder dat
het op schrift staat». Ik begrijp de vraag van mevrouw Koekkoek dus heel goed. Tot
nu toe is het gewoon een black box voor ons als het gaat om wanneer het toezicht zou
moeten groeien. Daar hebben we als rapporteurs van de commissie voor Digitale Zaken
een klein onderzoekje naar gedaan bij de begroting. Als we het bijvoorbeeld hebben
over de correlatie met Europese wetgeving, komt er ongelofelijk veel op ons af. Wij
krijgen heel vaak een briefje met de tekst «heeft geen impact op toezichtstaken».
Nou, dat lijkt mij heel raar, want het gaat honderd procent ook over de zaken waarvoor
onze toezichthouder aan de lat staat.
We hebben bij de begroting dus al gezien dat het een black box is. Dan hebben we ook
nog de toeslagenmisdaad – dat is een goed woord van DENK – waarvan de hele Kamer zegt
dat dat in ieder geval nooit meer mag gebeuren. Iedereen verbindt aan die uitspraak
andere consequenties, maar er is wel door heel veel partijen gevraagd om dat hele
pakket te pakken, en één onderdeel daarvan is een nog stevigere toezichthouder. Ik
vind het van de Staatssecretaris kort door de bocht dat hij zegt dat we nog even moeten
kijken, omdat ze misschien hun taken wel meer moeten verleggen naar advies geven over
wat er wel kan. Als iémand vindt dat de AVG een «wel kan»-wet is, dan is het de AP
zelf wel. Maar zij hebben hun handen al vol, en ze zijn al te erg onderbezet om die
burgerbeschermingstaak uit te kunnen voeren. Als de Staatssecretaris dit zegt, betekent
het dat er weer een afweging wordt gemaakt om meer kosten te maken zodat ze die taak
erbij kunnen krijgen. Ik hoop namelijk niet dat ze minder burgers gaan beschermen
omdat ze ons meer gaan vertellen over wat er wel kan.
We kunnen niet veel anders dan van u op schrift krijgen welke implicaties er zijn,
wat de Europese wetgeving hierover is en hoe u wilt dat er gekeken wordt. Dán kunnen
we in gesprek. Maar we kunnen als Kamer ons werk niet doen als we steeds alleen een
soort mondeling terugkoppelingetje krijgen van de gesprekken die plaatsvinden. Ik
hoop dus dat de Staatssecretaris zijn standpunt wil herzien en ons alsnog gewoon een
brief wil sturen, zodat wij als Kamer ook professioneel mee kunnen doen aan dat gesprek.
Staatssecretaris Struycken:
Zoals ik al zei: op het moment dat er nieuwe taken worden toegekend aan de Autoriteit
Persoonsgegevens, zeker wanneer die uit Europa komen, vindt het hele spectrum van
toetsen plaats, met inbegrip van de uitvoering en dergelijke. Daar zit altijd een
financiële component aan. Dat betekent altijd dat er bij een nieuwe taak extra budget
komt. Dat is evident.
Wat betreft het overige heb ik u met heel veel woorden duidelijk gemaakt dat het mij
duidelijk is dat we daar een beter beeld van moeten krijgen. Dat geldt ook voor mijzelf.
Dat bedoel ik in die zin dat we steeds weer een nieuwe analyse moeten kunnen maken
over wat de AP doet en hoeveel geld zij daarvoor nodig heeft. Dat is iets wat mij
leidt in mijn verantwoordelijkheid voor de AP. Maar ik wil nu geen schriftelijke brief
toezeggen waarin ik dat precies uiteenzet; dat zal onderdeel zijn van mijn analyses
van wat de AP nodig heeft. Als u daarin een keuze heeft te maken op het moment dat
het erover gaat, bijvoorbeeld bij de begrotingsbehandeling, dient u het inzicht te
krijgen dat u daartoe in staat stelt. Maar ik ga nu niet een schriftelijke brief toezeggen.
De voorzitter:
Een vervolgvraag van mevrouw Kathmann.
Mevrouw Kathmann (GroenLinks-PvdA):
Ik probeerde juist te schetsen dat wij bij de begrotingsbehandeling dat inzicht niet
krijgen, al jaren niet. We hebben er zelfs als rapporteurs onderzoek naar gedaan en
wat was de conclusie? Het is een black box, we hebben geen inzicht. Geen enkel begrotingsstuk
heeft dat inzicht gegeven de afgelopen keer. Dat is nou juist het probleem. Dus als
u het niet wil toezeggen en ons niet professioneel onderdeel wil maken van dat gesprek,
dikke prima. Maar dan wil ik wel dat nu in ieder geval wordt toegezegd dat die schriftelijke
stukken deze keer wel bij de begroting zitten. Het is geen onderdeel van een soort
normale cyclus. Dat is het niet en daarom wil ik de toezegging: deze keer gaan we
regelen dat u wel adequate stukken heeft, zodat u daar wel goed over kan oordelen,
en dat zal dan deze begroting voor het eerst zijn. Dat is dan in ieder geval de minimale
toezegging die we hier moeten krijgen. Anders kunnen wij nooit onderdeel worden van
dat gesprek. Ik vind de vraag van mevrouw Koekkoek echt terecht.
Staatssecretaris Struycken:
Ik heb uitvoerig uiteengezet dat het een brede analyse vergt van de rol en de taken
van de Autoriteit Persoonsgegevens en ook allerlei keuzes wat dat betreft. Ik heb
al eerder, in reactie op mevrouw Koekkoek tijdens het debat over het rapport van de
parlementaire enquêtecommissie, gezegd dat er thans geen aanleiding is te denken dat
er een tekort is. Dat blijkt niet uit de overleggen die wij met de autoriteit hebben.
Bij deze algemene observaties laat ik het. Ik ga geen concrete toezeggingen doen voor
een schriftelijke brief.
De heer Vermeer (BBB):
Ik denk dat we hier wel iets aan de orde hebben wat dan nu zweeft. Het laatste wat
mevrouw Kathmann zegt, is eigenlijk: dan maar geen brief, maar een duidelijke onderbouwing
bij de begroting. Over het algemeen zijn de begrotingen niet op dat niveau onderbouwd.
Kan de Staatssecretaris toezeggen dat dat bij de eerstvolgende begroting voor dit
onderdeel wel het geval zal zijn? Dat maakt dan de brief wellicht overbodig. Alleen
kunnen we dat pas beoordelen als we de begroting in huis hebben.
Staatssecretaris Struycken:
Dat is in essentie dezelfde vraag die mevrouw Kathmann stelde. Ik heb uitdrukkelijk
gezegd dat ik op dit punt geen toezeggingen doe. Ik heb wel toegezegd in algemene
zin ... Ik heb weergegeven dat ik goed kijk en kritisch meedenk, ook in de zin van:
wat zijn de taken en wat voor geld is daarvoor nodig als het om de Autoriteit Persoonsgegevens
gaat? Dat zal ook onderdeel zijn van hoe ik de Kamer daarover informeer. Wat de rol
van de AP is, zal onderdeel zijn van het debat op 6 februari in algemene zin. Daar
wil ik het bij laten.
De voorzitter:
Vervolgt u uw inbreng. Nog een kleine interruptie van mevrouw Kathmann. De laatste,
want we zijn al over de interrupties heen. Dat geldt ook voor meneer Vermeer.
Mevrouw Kathmann (GroenLinks-PvdA):
Maar dit gaat gewoon over de orde, want eigenlijk vraagt de Kamer: we willen geïnformeerd
worden. Eigenlijk zegt de Staatssecretaris: dat ga ik gewoon niet doen; ik heb een
gesprek. Wij hebben gewoon een professionele baan. Omdat u gesprekken heeft in kamertjes
waar wij niet bij zijn en waarover niet aan ons gerapporteerd wordt, kunnen wij ons
werk niet doen. De Staatssecretaris zegt: dat komt dan als het komt. Als wij vragen
of het bij de begroting komt, dan is het antwoord nee. Kan de Staatssecretaris in
ieder geval aangeven bij welk debat we stukken kunnen verwachten? Het debat op 6 februari
is in algemene zin; dan hebben we ook weer geen inzicht. Het is een hele normale vraag:
kunt u de Kamer informeren, Staatssecretaris? Dat is echt een onderdeel van ons dagelijks
werk en dat wordt hier gevraagd. Als er op deze vraag geen antwoord komt in een brief
of bij de begroting – dan wordt er ook geen inzicht gegeven – dan staan wij open voor
ieder moment dat het wel kan. Het is echt ... Sorry dat ik hier een beetje op aansla,
maar de vraag is echt gewoon: wilt u de Kamer informeren? Dat is echt een no-brainer
in dit huis.
De voorzitter:
Wilt u er nu op terugkomen of in de tweede termijn?
Staatssecretaris Struycken:
Misschien is het goed dat ik dat in de tweede termijn doe.
De voorzitter:
Dan wachten we even tot de tweede termijn en mag u uw betoog vervolgen. Een interruptie
van mevrouw Koekkoek.
Mevrouw Koekkoek (Volt):
Ik wilde wachten tot de tweede termijn, maar ik denk dat het goed en fijn is als de
Staatssecretaris dit ter reflectie meeneemt. Kijk, in de plenaire zaal werd gezegd
«daar is thans nog geen aanleiding voor» en juist daar komt mijn vraag uit voort.
Ik zou het misschien wel willen en het is niks persoonlijks richting de Staatssecretaris,
maar ik kan het kabinet niet op de blauwe ogen geloven. Dat wil ik dus alvast meegeven,
want dan hoef ik dat in mijn tweede termijn niet nog eens te benadrukken. Maar daar
komt mijn verzoek vandaan. «Er is thans geen aanleiding voor.» Dat blijft tot nu toe
de onderbouwing en de motivatie van het kabinet om te zeggen: wij zijn met gesprekken
bezig, maar we gaan niet verder. De Kamer wil horen waarom dan «thans niet». Dat mag
bij de begroting, als er daadwerkelijk een begroting is. Het kan ook eerder, want
dan kan de Kamer ook meedenken over die taken. Daar komt die vraag dus vandaan. Dat
wilde ik heel even verduidelijken, zodat we niet langs elkaar heen praten.
Staatssecretaris Struycken:
Voorzitter, zal ik daar dan nu op reageren? Mag ik daar dan nu op reageren?
De voorzitter:
Ja, daar mag u op reageren.
Staatssecretaris Struycken:
Daar waar het gaat om de taken onder de AVG, is er een rapport van KPMG. Dat heeft
bandbreedtes bepaald voor de benodigde budgetten voor de uitoefening van die taak.
Daar blijft het binnen. Dus het is in lijn met dat KPMG-rapport. Ik heb in dat Kamerdebat
aangegeven dat het erop lijkt – zo leest de brief van de AP ook – dat het meer een
prognose is van een gewenste invulling van taken in de komende tijd. De brief is geen
reflectie van tekorten die nu bestaan. Dus de beschikbare budgetten doen voldoende,
thans. De actuele status is dat de AP budget heeft, dat de AP nodig heeft voor in
ieder geval de AVG-taken die haar zijn toegekend, zoals bepaald, berekend en beoordeeld
door KPMG. Dat is wat ik heb bedoeld en ook thans weer herhaal, namelijk dat er geen
aanleiding is om te denken dat de AP op dit moment niet voldoende budget heeft voor
de taken die ze uitoefent.
De voorzitter:
Een verhelderende vraag.
Mevrouw Koekkoek (Volt):
Dank u wel voor deze opheldering. Dan is het eigenlijk goed dat we dit nu even doen
als Kamer, want daar zit dan ook de zorg, denk ik. Ik sluit me op dat punt aan bij
de woorden van mevrouw Kathmann, want er komen nieuwe taken aan. Dat weten we. Dan
is de vraag welke we bij de AP beleggen en op welke manier. Dat gesprek loopt, maar
dat moet eigenlijk gelijklopen met het inzicht voor de Kamer, omdat de Kamer daarover
kan meebeslissen en ook goed geïnformeerd moet worden over financiële keuzes. Daarin
zit ook de vraag. Want ik heb ook de constatering meegekregen van de rapporteurs:
wij kunnen hier geen goede Digitale Zaken-begroting behandelen. Dit is dan wel een
heel belangrijk onderdeel van wat we richting de Voorjaarsnota met elkaar moeten bespreken
en waarover we aan deze kant van de zaal ook voldoende informatie moet krijgen.
Staatssecretaris Struycken:
Heel concreet zal de AI-verordening mogelijk leiden tot extra taken voor de Autoriteit
Persoonsgegevens. In dat kader zal een begroting worden gemaakt en zal in overleg
met de AP worden vastgesteld hoeveel budget ze daarvoor nodig heeft ter aanvulling
op het bestaande budget. Van die analyse zal u uiteraard deelgenoot worden gemaakt.
Voor die extra taak zal dat inzicht dus worden gegeven. De discussie ziet meer op
het bestaande takenpakket en de overige in de toekomst gewenste of voorziene taken.
Wat het bestaande budget betreft heb ik verwezen naar KPMG. Wij hebben geen indicatie
dat er thans onvoldoende geld beschikbaar is voor de taken die de Autoriteit nu heeft
onder de AVG. Wat betreft die mogelijke taken in de toekomst en de invulling daarvan:
ja, daar zitten die strategische keuzes in; dat is dat bredere debat over de visie
op de rol van de AP naast andere instanties, daar waar het gaat om gegevensbescherming.
Dus dat is een breder maatschappelijk debat. Dat begint bij dat bredere maatschappelijke
debat over taken en rollen, en niet bij geld, want geld is dan een complement, een
volgende fase. Dus we moeten eerst met elkaar vaststellen wat wij in Nederland graag
willen dat de AP gaat doen. Dan kunnen we daarna spreken over hoeveel geld daarvoor
nodig is, additioneel.
De voorzitter:
Ik denk dat dat een uitstekende verheldering is. Bent u daarmee aan het einde van
de inbreng? O, ik zie dat er nog altijd vragen zijn bij mevrouw Kathmann en mevrouw
Koekkoek. We zitten al ver over het aantal interrupties. We hebben ook nog maar een
halfuur voor dit debat. Er is nog een aanvullende vraag van de heer Ergin.
De heer Ergin (DENK):
Ik heb nog één interruptie; ik probeer het even beet te pakken. Volgens mij zijn er
een aantal dingen. De AP heeft zelf een berekening gemaakt en er is het KPMG-rapport,
maar er is ook de vraag wat er nou wel klopt en logisch is aan de berekening van de
AP. Dat is een analyse die ambtenaren op het departement standaard maken als ze iets
zien. De vraag is of we die kunnen krijgen. We kunnen het nu, tijdens dit debat, aan
de Staatssecretaris vragen. Dan kunnen we heel makkelijk zeggen: conform artikel 68
willen wij die informatie krijgen. Als de Staatssecretaris hier nee blijft verkopen,
dan zegt hij eigenlijk tegen deze commissie «dien maar een Woo-verzoek in», want dan
krijgen we die stukken alsnog. Maar volgens mij moeten wij die kant niet op gaan.
Dus ik probeer de interrupties – volgens mij waren het er zes – even samen te vatten.
Er is een analyse van de AP, er is een rapport van KPMG, wellicht is er nog meer informatie
binnen het departement, dus informeer ons daar nou over, want wij willen weten of
de AP op dit moment, maar ook richting de toekomst, voldoende capaciteit heeft, zeker
ook gelet op de ambities waar wij het vandaag over hebben. Iedereen wil dat er meer
controle komt op algoritmen en de vraag is of dit voldoende is. Het zou toch heel
raar zijn als de Kamercommissie de Staatssecretaris vraagt om geïnformeerd te worden,
en de Staatssecretaris zegt: nee, op dat punt ga ik geen toezeggingen doen. Volgens
mij is dat niet de bedoeling, voorzitter.
Staatssecretaris Struycken:
Ik heb vermeld dat de Autoriteit Persoonsgegevens zelf bezig is met een evaluatie.
We gaan er maar even van uit dat dat kan doorgaan als een zbo-evaluatie. Het is een
zbo – en zbo’s moeten evaluaties doen. Ze kiezen ervoor om zélf die evaluatie te doen,
en dat zou een zbo-evaluatie moeten zijn. Dat zal nadere informatie opleveren. Daarnaast
zijn er de reguliere gesprekken met de Autoriteit Persoonsgegevens. Ik kondigde u
al aan dat wij uiteraard op die evaluatie zullen reageren. Die evaluatie zult u krijgen,
bij mijn weten, en ook onze reactie daarop. Maar dat is onderdeel van een proces dat
gaande is en dat in de komende maanden speelt.
Ik heb uiteraard gehoord dat uw Kamer goed geïnformeerd wil zijn. Uiteraard, zou ik
zeggen. Maar laten we eerst die evaluatie afwachten. Op basis daarvan kunnen we opnieuw
bezien wat er nodig is om daar een goede vaststelling van te maken. Nogmaals, dat
KPMG-rapport is bij mijn weten een extern rapport. Ik heb niet eerder gehoord dat
het KPMG-rapport niet meer leidend, niet meer juist, zou zijn. Op die basis herhaal
ik nog een keer dat wij geen indicatie hebben dat ze tháns geen middelen hebben om
de bestaande taken uit te kunnen voeren. Ik verval in herhaling, voorzitter.
De voorzitter:
Nog een verhelderende opmerking van mevrouw Kathmann?
Mevrouw Kathmann (GroenLinks-PvdA):
We zitten hier niet in een bedrijf een managementvergadering te houden. We zijn de
Tweede Kamer. Een rapport van KPMG is dus een politiek document. Daar maakt iedereen
een andere politieke afweging bij. Het is heel fijn dat we horen welke afweging de
Staatssecretaris maakt en dat we te horen krijgen hoe het kabinet dit rapport interpreteert,
maar dat betekent niet dat de hele Kamer dat ook vindt. Dat is gewoon onderdeel van
het politieke debat. Daarom hebben wij de afwegingen nodig, de cijfers die eronder
liggen, en ook de informatie van de AP zelf, zodat je dat politieke debat goed met
elkaar kan voeren. Het zou wel een beetje gek zijn – want dan zouden we ons werk allemaal
niet goed doen – als we zulke rapporten allemaal hetzelfde zouden interpreteren. Dat
is nou juist de vraag.
Sorry, voorzitter, maar ik vind het gewoon een heel gek gesprek waar we nu in zitten.
We zeggen letterlijk gewoon: informeer de Kamer. Zo’n KPMG-rapport is onderdeel van
het debat. Het is niet zo dat als de Staatssecretaris zegt wat hij van dit rapport
vindt, wij dan allemaal zeggen: ja, daar zij wij het helemaal mee eens.
Staatssecretaris Struycken:
Ik wil alleen maar zeggen dat het KPMG-rapport van enige tijd geleden gedeeld is met
uw Kamer. Daar beschikt u dus over.
De voorzitter:
Nog een kleine verduidelijking van de heer Vermeer.
De heer Vermeer (BBB):
Ik vraag me af hoe we in deze discussie verzeild geraakt zijn en waar het vandaan
komt dat we daar nu aan beide kanten geharnast in zitten. Als de Staatssecretaris
niet wil dat wij hier al vooruitlopen op een interne discussie die hij nog met de
AP gaat hebben en de Kamer dus om ruimte vraagt om dat op orde te krijgen, dan zou
ik dat snappen. Maar als het punt gewoon is dat de Staatssecretaris die informatie
eigenlijk niet wil geven of niet kan geven, snap ik dat eigenlijk gewoon niet helemaal.
Ik vraag de Staatssecretaris dus of het een kwestie van timing is, gezien de gesprekken
die hij nu aan het voeren is en het hele proces. Is de Staatssecretaris bang dat dat
verstoord wordt? Want als het oordeel van de Staatssecretaris is dat er geen extra
geld nodig is, maar dat men misschien op een andere manier moet werken, kunnen we
het daar ook een keer over hebben, want het is niet zo dat geld alles oplost. Tenminste,
dat is in ieder geval niet mijn visie. Misschien kan de Staatssecretaris dus iets
beter duiden waarom hij hier geharnast in zit of waarom hij – dat voel ik gewoon zo
– dit een lastige instelling vindt van de Kamer. Misschien kan hij een oproep doen
en ons aangeven waarom hij liever heeft dat we ons even rustig houden.
Staatssecretaris Struycken:
Het is in het geheel niet de intentie om hier geharnast in te zitten. Sterker nog,
ik heb vrij veel moeite genomen om u deelgenoot te maken van de wijze waarop wij hiermee
bezig zijn en om u inzicht te geven in de bredere discussie die gaande is. De heer
Vermeer verwoordt het veel beter dan ik, maar heeft hier misschien ook veel meer ervaring.
Ik vraag u misschien inderdaad om de tijd te geven om de zelfevaluatie van de AP af
te wachten. Dat is een zbo-evaluatie, die naar onze verwachting meer zicht geeft op
de taken die de AP heeft en voor zichzelf ziet en op de daarvoor door de AP in haar
eigen inschatting benodigde middelen. Dan kunnen wij daar ook over spreken om een
nadere onderbouwing te krijgen van hoe de AP zelf de getallen koppelt aan haar bestaande
of gewenste taken. Ik denk dus dat ik inderdaad om tijd vroeg om die evaluatie af
te wachten, zodat we daar daarna met u verder over kunnen spreken.
De heer Vermeer (BBB):
Dank aan de Staatssecretaris voor zijn toelichting. Zou hij aan kunnen geven hoe hij
die tijdlijn voor zich ziet, zodat wij niet op de verkeerde momenten ongeduldig worden?
De voorzitter:
Wanneer kan de Kamer een menukaart tegemoetzien?
Staatssecretaris Struycken:
Ik zei u al dat die evaluatie naar verluidt af is, maar we hebben haar nog niet gekregen.
Ik kan dus niet helemaal goed inschatten of die evaluatie is wat u van ons verwacht
bij een zbo-evaluatie. Dat maakt het wat lastiger. Ik kan er niet zonder meer van
uitgaan dat we met die evaluatie hebben wat nodig is bij een zbo-evaluatie. Ik heb
dus ook geen idee in hoeverre daarin de informatie staat die het mogelijk maakt om
snel te reageren. Voor zover ik weet zal de AP de evaluatie zelf met u delen. Anders
zullen wij dat doen. Dan kunnen we ook een betere indicatie geven van de termijnen
waarop we met een reflectie daarop komen.
De voorzitter:
Ik denk dat we daarmee de beantwoording hebben waar we het mee mogen doen. Hebben
we er wel een beetje zicht op wanneer dat gedeeld wordt door de AP of in ieder geval
door u? Wordt dat Q2 of Q3?
Staatssecretaris Struycken:
Nog dit kwartaal, naar verluidt.
De heer Ergin (DENK):
Hebben we dan een toezegging?
De voorzitter:
Dat lijkt mij een toezegging.
De heer Ergin (DENK):
Voor het verslag.
Staatssecretaris Struycken:
Ik ben heel benieuwd hoe u die gaat verwoorden, maar dat horen we straks.
De voorzitter:
We proberen een mooie toezegging te formuleren. Ik neem aan dat u daarmee aan het
einde van uw inbreng in de eerste termijn bent gekomen. Ik kijk even welke leden van
de Kamer een tweede termijn willen. Dat geldt allereerst voor de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Dank u wel, voorzitter. Ik wil beide Staatssecretarissen bedanken voor hun beantwoording.
Ik waardeer ook specifiek de lange overdenking die de Staatssecretaris van Justitie
gegeven heeft over mensbeeld in relatie tot algoritmes.
Dan over algoritmes op orde brengen binnen de overheid. Ik twijfel er op geen enkele
manier aan dat de Staatssecretaris DiZa dat op orde wil brengen. Ik zie die intentie.
Tegelijkertijd blijft het ook steeds hangen in termen van «overheden aansporen», «inspannen»
en «iedereen gaat zich registreren». Daarmee ben ik ook nog niet helemaal gerustgesteld
wat betreft de inventarisatie die gaat plaatsvinden door het Netwerk van Publieke
Dienstverleners. Dat is weer een uitvraag en het is niet bekend hoeveel hoge-impactalgoritmen
er binnen de overheid zijn. De Algemene Rekenkamer constateert ook steeds: een kwart
van de overheid weet niet eens in welke cloud die zit. We weten ook niet hoeveel AI-algoritmes
er zijn en hoeveel andere soorten algoritmes er zijn. Het is een terugkerend thema.
Ik wil de Staatssecretaris vragen om daar nog even op te reflecteren. Hoe kunnen we
daar nou meer grip op krijgen zodat het iets minder vrijblijvend wordt allemaal?
Ik wil daarbij ook een vooraankondiging doen voor een tweeminutendebat. Dat is even
afhankelijk van de beantwoording. Dan kunnen we het daar nog verder over hebben met
elkaar.
Dank u wel.
De voorzitter:
Dank voor uw inbreng in tweede termijn. Dan is het woord aan de heer Ergin van DENK
voor zijn tweede termijn.
De heer Ergin (DENK):
Voorzitter. Ik heb een aantal interessante zinsdelen tijdens dit debat genoteerd.
«De Staatssecretaris gaat hulpmiddelen uitreiken aan medeoverheden.» «Aan de hand
van de analyse gaat de Staatssecretaris kijken naar enzovoort.» De Staatssecretaris
heeft aangegeven: u kunt deze vraag morgen stellen tijdens het debat. Hij heeft zelfs
vragen doorgeleid naar de Minister van BiZa. «Hij gaat kijken naar enzovoort.» «Hij
gaat het op het niveau van de ministerraad aan de orde brengen.» «Aansporen.» Al die
termen zijn op zich prima en dragen bij aan meer bewustzijn en het aanpakken van uitdagingen,
maar het is volstrekt te weinig in het licht van de grote uitdagingen die wij vandaag
allemaal hebben geschetst. Wij komen allemaal van andere politieke partijen, maar
over algoritmes hebben we allemaal een verhaal van: we moeten ervoor zorgen dat op
z’n minst transparantie mogelijk is. Als transparantie mogelijk is, moeten we ook
gaan bekijken hoe we extra waarborgen gaan inbouwen.
Ik heb het gevoel dat we dit debat niet heel veel zijn opgeschoten. Ik zou de beide
Staatssecretarissen willen vragen om bij de aankomende commissiedebatten en activiteiten,
zoals brieven, ook rekening te houden met het ongeduld van deze commissie. Dat vraag
ik niet omdat wij kant-en-klare antwoorden willen tijdens debatten, maar we willen
gewoon stappen maken. Die stappen worden al jarenlang niet gemaakt in deze commissie.
Ik hoop dat bij het eerstvolgende debat met twee Staatssecretarissen, en misschien
meer, ze zekerder zijn van de uitspraken die ze doen. Ze moeten niet ferme uitspraken
doen die ze na vijf seconden weer moeten intrekken. Dat is de hoop die ik wil uitspreken.
Ik wil tijdens het tweeminutendebat graag een aantal inhoudelijke moties indienen.
Dank u wel.
De voorzitter:
Dank voor uw bijdrage, meneer Ergin. Dan is het woord aan mevrouw Koekkoek van de
partij van Volt.
Mevrouw Koekkoek (Volt):
Dank, voorzitter. Ik sluit me eigenlijk wel aan bij de woorden van collega Ergin.
Ik heb heel veel gehoord. Er wordt verwezen naar later in de tijd, naar april, zomer,
eind van het jaar, in sommige gevallen, en andere commissies, naar die van EZ en Binnenlandse
Zaken, maar het idee van deze commissie was dat alles wat raakt aan digitalisering
hier ook terugkomt. Waarom? Omdat de wereld heel snel digitaliseert. We hebben wat
betreft algoritmes gezien hoe zwaar het mis kan gaan; daar komt denk ik ook het ongeduld
van de Kamer vandaan. We hebben gezien dat we eigenlijk continu achter de feiten aanlopen,
wat zowel kabinet als Kamer volgens mij zeer, zeer ongemakkelijk vindt.
De zorg die in ieder geval bij mezelf leeft, is dat je dat blijft behouden als we
in dit tempo met elkaar blijven doorwerken. Daar zit voor mij ook de urgentie als
Kamerlid om onderdeel te zijn van dit debat. Ik wil meepraten over de maatschappelijke
taak van de AP en de bijbehorende keuzes, waar ook de financiën bij horen. We hebben
ambities en willen daar ook de risico’s van ondervangen. Het mag namelijk niet nog
een keer zo gruwelijk misgaan. Daar zit dus de urgentie. Dat is inderdaad een mooie
oproep, namelijk of de Staatssecretarissen daar rekening mee kunnen houden. Maar op
enig moment slaat de welwillendheid van de Kamer ook wel om, naar ongeduld, naar frustratie,
naar «we gaan het afdwingen». Ik wil dat voorkomen, want op het moment dat je tegenover
elkaar komt te staan, krijgen we helemaal geen «grote stappen, snel thuis». Dat moet
juist wel bij dit onderwerp.
In dat kader heb ik één vraag die volgens mij nog open is blijven staan. Ik wil toch
nog om een concreet antwoord daarop vragen. Ik heb namelijk gevraagd of we de algoritmes
op zo’n manier openbaar kunnen maken dat wetenschappers en journalisten kunnen meekijken,
en of dat ook de ambitie is van het kabinet. Dan heb je gewoon meerdere paren ogen.
Je hebt de AP nodig. Je hebt een welwillend kabinet nodig. Maar je hebt ook andere
buitenstaanders, experts, nodig die kunnen meekijken.
Daar wil ik het graag bij laten, voorzitter. Dank.
De voorzitter:
Dank voor uw inbreng in tweede termijn. Dan is het woord aan de heer Buijsse voor
zijn inbreng in tweede termijn namens de VVD.
De heer Buijsse (VVD):
Dank u wel, voorzitter. Mijn aandacht ging in dit debat uit naar de ontwerpprincipes
voor overheidsdiensten. De constatering die ik heb mogen doen, is dat er eigenlijk
geen of heel weinig toezicht is vanuit het departement BZK. De Staatssecretaris heeft
wel gezegd dat het strakker moet en dat er een intern netwerk is om daar veel beter
en gestructureerder het gesprek over te voeren. Hij zei dat de NDS, de Nederlandse
Digitaliseringsstrategie, eigenlijk een heel mooi podium is om dat te faciliteren.
Hij heeft mij toegezegd na te denken over de mogelijkheid om dat via de NDS te doen,
maar ik zou eigenlijk gewoon de toezegging willen dat hij in de NDS een of twee zinnen
besteedt aan de ontwerpprincipes voor de digitale dienstverlening. Ik zou deze toezegging
willen vragen van de Staatssecretaris.
Dank u wel.
De voorzitter:
Hartelijk dank voor uw bijdrage in tweede termijn. Dan geef ik het woord aan de heer
Vermeer namens BBB voor zijn tweede termijn.
De heer Vermeer (BBB):
Voorzitter. We hebben nog een paar antwoorden tegoed in de tweede termijn, maar ik
wil de Staatssecretarissen en alle mensen die naast en achter hen staan in ieder geval
bedanken voor de antwoorden op de vragen. Eén ding is mij wel duidelijk: wij hebben
nog een behoorlijke weg te gaan om alles goed, transparant, inzichtelijk en compleet
te krijgen.
Ik denk wel dat het verstandig is – daar hadden we het daarstraks in de interruptie
ook even over – dat er een moment komt waarop er gezegd wordt: datgene wat gewoon
niet transparant en compleet beschikbaar is, mag gewoon niet meer ingezet worden.
Maar hopelijk is dat niet nodig en lukt het de Staatssecretaris de boel snel op de
rit te krijgen.
Dank u wel.
De voorzitter:
Heel hartelijk dank voor uw inbreng in tweede termijn. Ik geef het woord aan mevrouw
Kathmann namens GroenLinks-Partij voor de Arbeid voor haar tweede termijn.
Mevrouw Kathmann (GroenLinks-PvdA):
Voorzitter. Ik wil ook de Staatssecretarissen bedanken voor de beantwoording en voor
wat nog gaat komen. Ik bedank natuurlijk ook de mensen achter de schermen; heel goed,
meneer Vermeer.
Ik vond het een mooie suggestie van Staatssecretaris Szabó om te kijken of we als
commissie eens zo’n cursus kunnen doen. Ik zou ook een tegenvoorstel willen doen aan
de Staatssecretaris. Ik hoop dat hij bekend is met De Toekomst Kamer, vroeger ook
wel bekend als de Stichting Toekomstbeeld der Techniek. Die heeft een suggestie gedaan
voor wat we kunnen verbeteren aan de Algoritmeregisters, omdat eigenlijk in alle stukken
van de overheid over waarom we dat register willen, staat: het allerbelangrijkste
doel is het vertrouwen terugwinnen.
Het gaat dus ook om het vertrouwen dat we de algoritmen die we gebruiken, kunnen vertrouwen.
Maar hoe kunnen we dat vertrouwen als doelstelling hebben als maar 9% van de Nederlanders
weet wat een Algoritmeregister is? Er gaat dus iets volledig mis. Zij hebben ook handreikingen
gedaan, net als die andere organisaties met hun vijfsterrenmodel, waar de Staatssecretaris
naar wil kijken. Ik hoop dat hij in gesprek wil met De Toekomst Kamer om te kijken
hoe we mogelijk op een andere en betere manier die doelstelling van vertrouwen kunnen
halen.
Voorzitter. Volgens mij hebben we voldoende gezegd over de AP – dit is echt afsluitend
– maar ik denk dat dat ook echt komt doordat we het vandaag over nogal iets hebben.
We hebben het over iets wat maar niet vlot en waar mensen in Nederland echt door vermorzeld
kunnen worden en ook zijn vermorzeld. Het is traag, het gaat moeilijk en we weten
allemaal dat het beter moet. De AP speelt daar tot nu toe in ieder geval een cruciale
aanjagende rol in. We hebben al zo vaak aan de bel getrokken omdat we dat gesprek
over de AP, die dus die belangrijke rol heeft, ook om dit vlot te trekken en op dit
punt te signaleren om dit goed te krijgen, beter willen voeren. Toen zijn we al honderd
keer van het kastje naar de muur gestuurd: nee, dan moet u bij de Staatssecretaris
zijn, dan moet u bij JenV zijn of dan moet u bij dit of bij dat zijn. Als je dan nu
met een soort voldongen feit zit en het idee hebt dat je weer niet geïnformeerd wordt,
denk je op een gegeven moment: welke voortgang moeten we dan nog wel geloven? Dat
zat me gewoon even hoog.
De voorzitter:
Hartelijk dank voor uw inbreng in de tweede termijn. Als voorzitter draag ik het voorzitterschap
nu even over aan de heer Six Dijkstra, opdat ik zelf ook een inbreng kan leveren.
Voorzitter: Six Dijkstra
De voorzitter:
Het woord is aan de heer Valize namens de PVV voor zijn tweede termijn.
De heer Valize (PVV):
Voorzitter, dank voor het woord. Allereerst wens ik heel graag de organisatie, maar
ook de Staatssecretarissen en de ambtelijke ondersteuning te bedanken. Ik bedank ook
de collega’s voor hun uitstekende inbreng tijdens dit debat. Ik heb verder geen punten
voor de tweede termijn. Wel zou ik, zoals gezegd, iedereen hartelijk willen danken.
De voorzitter:
Dank u wel. Ik geef het voorzitterschap bij dezen weer over aan u.
Voorzitter: Valize
De voorzitter:
Heel hartelijk dank voor het voorzitterschap, meneer Six Dijkstra. Ik kijk even naar
rechts: hebben de Staatssecretarissen een korte schorsing van vijf à tien minuten
nodig voor de beantwoording? We hebben nog wel even de mogelijkheid om wat uit te
lopen. Ik overleg even. Ja, we kunnen nog een klein beetje uitlopen. Een schorsing
van tien minuten is dus akkoord.
De vergadering wordt van 21.20 uur tot 21.29 uur geschorst.
De voorzitter:
Goedenavond allemaal. Welkom terug bij de commissie voor Digitale Zaken, bij het debat
over de inzet van algoritmen en data-ethiek bij de rijksoverheid. We gaan naar de
tweede termijn van het kabinet. Het woord is aan de heer Szabó, Staatssecretaris Digitalisering.
Staatssecretaris Szabó:
Dank u wel, voorzitter. Ik zal proberen zo goed mogelijk de vragen uit de tweede termijn
te behandelen, evenals wat vragen uit de eerste termijn die er nog lagen.
Ik begin met de tweede termijn, met de vraag van de heer Six Dijkstra over de reflecties.
Hij zei dat we op bepaalde dossiers minder vrijblijvend met elkaar moeten omgaan.
Ik heb daar even over na zitten denken. U heeft in de Kamercommissie voor Digitale
Zaken zelf een aantal hoofdthema’s, zoals inclusie en dat soort zaken. Wij hebben
ook wat thema’s vanuit de Nederlandse Digitaliseringsstrategie. Het lijkt mij goed
voor toekomstige debatten om te kijken of die goed op elkaar aansluiten. Niet voor
niets heb ik u 4 november uitgenodigd met de benen op tafel om te kijken waar we op
gaan lopen. Het moet goed passen, ook straks in de debatten, want als we resultaten
willen zien op dossiers, moeten we dezelfde taal spreken. Die handreiking doe ik dus
in ieder geval. Ik weet niet precies hoe we die discussie met uw commissie gaan voeren;
daar moeten we even naar kijken.
DENK had het onder andere over transparantie en meekijken. Daar heeft Volt het ook
over gehad. De vraag was of journalisten en wetenschappers ook kunnen meekijken bij
algoritmes. Ja. We horen op dit moment al van wetenschappers dat ze veel met het Algoritmeregister
bezig zijn. Dat vind ik belangrijk. Dat was ook een van de doelen. Het Algoritmeregister
is ontwikkeld om ook te voldoen aan de informatiebehoefte van journalisten en wetenschappers.
Dat heb ik in het debat ook aangegeven. In de doorontwikkeling van het register wordt
ook de gebruikersbehoefte meegenomen. Het gaat dus niet alleen om wetenschappers en
journalisten, maar ook om anderen die het register willen benaderen.
Dan de ontwerpprincipes, waar de VVD op is ingegaan. Ik heb al gepoogd toe te zeggen
dat daarop wordt ingegaan in de Digitaliseringsstrategie, onder andere via standaardisatie,
maar ik zal ook specifiek dit begrip benoemen. Het lijkt me namelijk wel verstandig
voor de discussie dat iedereen aan het begin van de discussie weet waar de prioriteiten
liggen. Standaardisatie zit natuurlijk ook in andere dossiers, maar dit is er zeker
eentje van, want vanuit de architectuurgedachte past het niet om naast elkaar op verschillende
manieren iets te ontwerpen. Sterker nog, we moeten meer regie voeren, dus ontwerpprincipes,
van boven naar beneden, worden steeds belangrijker.
BBB had een vraag over transparantie voor burgers. Ja, helemaal mee eens.
De PvdA had het over een cursus aan de Kamer geven. Nee, het was niet zo dat ik u
een cursus wilde geven; ik wilde u inzicht bieden in wat wij doen met onze ambtenaren.
Ik heb begrepen dat mijn voorgangster – dat heb ik al eerder in de stukken gezien
– ook naar De Toekomst Kamer keek. Als u dat wilt – misschien wil ik dat ook wel,
maar daar ga ik nog één keer heel goed naar kijken, want het moet echt relevant zijn
voor beide partijen – wil ik graag met ze in gesprek. Dat wordt dus opgepakt vanuit
onze kant.
Dan nog wat additionele vragen uit de eerste termijn. De makkelijkste vraag is die
van de heer Vermeer: hoe heet ook alweer die handreiking? Nou, meneer Vermeer, het
wordt geen quizvraag. Die heet gewoon: Handreiking Algoritmeregister. Onder categorie
A staan de maatregelen voor hoogrisicomodellen. We kunnen ’m ook opsturen als u wilt,
als daar behoefte aan is.
Dan nog een vraag van de heer Ergin over de lijst die de Kamer heeft. Ik heb hier
één A4’tje voor me, dus ik hoop dat ik alles heb. Die lijst is gedeeld. In de Kamerbrief
van 2 december 2024 melden wij dat wij de aanbevelingen van de ADR allemaal oppakken.
Dat zijn dus die eerste vier. En bij de vijfde waren we wat meer terughoudend, want
daar ging het met name over de CIO Rijk die dan vooraan moest gaan lopen en zelf moest
gaan kijken naar voortgang en resultatenrapportages. We hebben daarbij aangegeven
dat we wel kunnen kijken of die rapportages eenduidig naar de Kamer kunnen komen.
Ik ga zelf even kijken of we ook een eenduidig format hebben. Als dat niet zo is,
ga ik alsnog dit laatste onderwerp zelf oppakken. Maar als het allemaal leesbaar is
voor iedereen, dan laten we het zo.
De heer Ergin (DENK):
Wat moet ik verstaan onder «oppakken»? Betekent dat dat de Staatssecretaris ervoor
gaat zorgen dat de tekortkomingen – ik heb er een paar genoemd, maar er zijn er veel
meer – worden ...
Staatssecretaris Szabó:
Het gaat om de wijze van rapporteren naar de Kamer. De aanbeveling van de ADR was
dat in het verlengde van het voorgaande kan worden overwogen dat vanuit de CIO Rijk
de voortgang en resultaten worden gerapporteerd. Maar goed, iedereen rapporteert voor
zichzelf. Maar als we dat moeten clusteren in begrijpelijk Nederlands, dan doe ik
dat graag.
De heer Ergin (DENK):
De laatste vraag, voorzitter. De ADR constateert een aantal tekortkomingen, zoals
dat bepaalde uitvragen niet zijn getoetst et cetera. Betekent het overnemen van de
aanbevelingen ook dat die tekortkomingen in de komende periode wel worden opgepakt
en worden weggewerkt, om het even zo te stellen?
Staatssecretaris Szabó:
De specifieke vraag van ons aan de departementen was of ze die tekortkomingen zelf
oppakken. Dus dan ga ik er ook van uit dat die worden opgepakt en worden verwerkt.
Oké. Heb ik nog wat laten liggen, voorzitter? Ik kijk even naar de Kamerleden.
De voorzitter:
Er is een interruptie van de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Er stond nog een vraag van mij uit. De Staatssecretaris kwam met een heel kort antwoord
op mijn verduidelijkingsvraag over hoe de inzet die nu gaat plaatsvinden voor de inventarisatie
van algoritmes zich verhoudt tot de eerdere inzet van de Staatssecretaris, waarbij
hij had gezegd: dat gaan we niet meer doen?
Staatssecretaris Szabó:
Dat had ook te maken met het verzoek van het lid Idsinga. Het lid Idsinga ging uit
van het advies van de landsadvocaat. Uit het AP-advies blijkt dat selectie-instrumenten
wel degelijk zijn toegestaan, mits aan een aantal waarborgen wordt voldaan. Op basis
daarvan is zo’n inventarisatie niet nodig. Ik heb nog een laatste zin, meneer Six
Dijkstra, als u mij toestaat. Om zicht te krijgen op de uitvoeringspraktijken gaat
het NPD uitvoeringsorganisaties vragen om aan de hand van twee selectie-instrumenten
per organisatie aan te geven hoe om wordt gegaan met de door de AP genoemde waarborgen.
Op basis van de uitkomsten die ik u voor het eind van het jaar stuur, wil ik bekijken
wat er nodig is om organisaties verder te ondersteunen bij het voldoen aan de waarborgen
uit het AP-advies.
De voorzitter:
Een vervolgvraag van de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Ik wil het even helemaal afpellen. Om uiteindelijk te komen tot een lijst van algoritmes
die al dan niet voldoen aan het advies van de AP, heb je toch zo’n inventarisatie
nodig van algoritmes die volgens het advies van de landsadvocaat onwettig zouden zijn
maar waarvan de AP nu zegt dat het mag onder bepaalde waarborgen? Dan kom je toch
uiteindelijk bij dezelfde lijst met algoritmes uit, of zie ik dat verkeerd? In principe
is dat dezelfde inventarisatie.
Staatssecretaris Szabó:
Klopt, het is gewoon een parallel traject.
De voorzitter:
Nog een verhelderende vraag van de heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Dan begrijp ik niet helemaal waarom de regering in haar brief heeft aangegeven af
te zien van die inventarisatie, als dit in principe hetzelfde is.
Staatssecretaris Szabó:
Dat ging over illegale praktijken en de AP zegt dat het geen illegale praktijken zijn.
De voorzitter:
We komen toch weer in een discussie terecht. De heer Six Dijkstra.
De heer Six Dijkstra (NSC):
Dat begrijp ik. Ik begrijp dat de omstandigheden anders zijn. Maar in principe is
uiteindelijk de uitkomst hetzelfde, of niet? Zie ik dat verkeerd? Of heeft de Staatssecretaris
nu eigenlijk nog meer werk, omdat hij nu ook in kaart moet brengen aan welke voorwaarden
het voldoet? In plaats van een lijst te maken met enkel de algoritmes die onder de
oude lezing van de AVG illegaal zouden zijn, zou hij nu dezelfde lijst moeten opstellen
en daarbij ook nog aan moeten geven aan welke van de vijf waarborgen van de AP ze
voldoen. Dat wil ik heel graag, maar in principe vindt die inventarisatie nog steeds
plaats.
Staatssecretaris Szabó:
Het gaat om de menselijke tussenkomst en daar kijken we nu specifieker naar. Heb ik
zo alle vragen beantwoord?
De voorzitter:
Ik zie in ieder geval nog een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
Misschien heb ik niet goed opgelet, want ik kreeg een ander berichtje waar ik even
mee bezig was; excuses daarvoor. Maar ik heb nog gevraagd of er een onderzoek loopt
bij de Algemene Rekenkamer naar algoritmen en welke dat zijn.
Staatssecretaris Szabó:
Ik heb ’m te pakken, voorzitter. Ja, de Algemene Rekenkamer doet dit jaar onderzoek
naar een beperkt aantal algoritmes als onderdeel van zijn verantwoordingsonderzoeken.
Het is mij niet bekend op welk algoritme dit onderzoek zich het afgelopen jaar heeft
gefocust. Ik kan dit uitvragen bij de Algemene Rekenkamer indien u dit wenst en u
hierover informeren.
De voorzitter:
Dan heeft u nog een interruptie van ... O, nog een interruptie van de heer Vermeer.
De heer Vermeer (BBB):
En wanneer kan dat? Want dan kan dat goed opgenomen worden in de toezeggingen.
Staatssecretaris Szabó:
Wanneer we dat gaan uitvragen?
De heer Vermeer (BBB):
Nee, wanneer we het krijgen.
Staatssecretaris Szabó:
Ik ga het zo spoedig mogelijk uitvragen, morgenochtend 8.00 uur. Dan zal ik u daarna
informeren over wanneer we de resultaten kunnen krijgen.
Mevrouw Kathmann (GroenLinks-PvdA):
De Staatssecretaris zou in de tweede termijn nog even terugkomen op het raadsel van
het voldoen aan de AI Act. Als we de helft van de AI die we toepassen niet in beeld
hebben en maar 2% van de algoritmes is geregistreerd, hoe weten we dan dat we voldoen
aan de AI Act?
Staatssecretaris Szabó:
Organisaties hebben met dit als prioriteit specifiek naar de verboden AI-praktijken
gekeken. Dit gaat dus om een beperkt aantal toepassingen. De volgende fase van de
AI-verordening, de hoogrisico-AI-systemen en transparantieverplichtingen, gaat per
augustus 2026 in.
Voorzitter, dan hoop ik alle vragen beantwoord te hebben.
De heer Ergin (DENK):
Ik heb nog een openstaande vraag over de AP, die naar de Nederlandse wetgeving heeft
gekeken. Dat staat ook in het rapport, het advies, van de AP over geautomatiseerde
algoritmes. Maar tegelijkertijd hebben we ook het SCHUFA-arrest, waarin een Europese
rechter de definitie vrij strikt heeft genomen. De Staatssecretaris zou daar in tweede
termijn op terugkomen. Ik zie hem vragend kijken. Ik vind het ook prima als ik hier
een schriftelijke reactie op krijg, maar ik wil die analyse, die ik inmiddels al twee
keer heb geschetst, graag zien van de Staatssecretaris.
Staatssecretaris Szabó:
Het antwoord ligt nu niet op mijn bureau, dus u krijgt van mij een schriftelijk antwoord.
De voorzitter:
Op welke termijn?
Staatssecretaris Szabó:
Niet morgenochtend 8.00 uur. Ik hoor hier «Q1». Dat loopt af, dus dat is dan binnen
twee maanden, denk ik.
De heer Ergin (DENK):
Voorzitter, kunnen we gewoon de gebruikelijke termijn aanhouden voor de beantwoording
van een schriftelijke vraag, volgens mij drie weken, in plaats van dat het twee maanden
duurt voordat ik een antwoord krijg op een vraag?
Staatssecretaris Szabó:
In de geest van dit debat en onze toekomstige samenwerking kan ik dit toezeggen.
De voorzitter:
Dat lijkt me een mooie toezegging aan de heer Ergin. Het woord is aan de Staatssecretaris
van Justitie en Veiligheid, de heer Struycken, voor zijn tweede termijn.
Staatssecretaris Struycken:
Voorzitter. Ik hecht eraan u allen te danken, en mevrouw Kathmann in het bijzonder
voor haar opmerkingen aan het end. Zij bracht terecht naar voren dat we allemaal voor
ogen moeten houden dat de AP een buitengewoon belangrijke rol vervult in onze samenleving,
juist op het vlak van gegevensbescherming. Dat onderschrijf ik volledig. We moeten
een constructieve dialoog met elkaar en met de AP hebben over hoe we die rol verder
kunnen vormgeven. Een van de adviezen van de AP is juist vandaag buitengewoon belangrijk.
Dat stond op de agenda. Daaruit blijkt het grote belang van de AP. Wat mij betreft
bestaat daar geen misverstand over.
Voor het overige dank ik u dat ik hier in deze commissie aanwezig mocht zijn.
De voorzitter:
Dan kijk ik naar mijn linkerzijde. Ik zie dat er verder geen onbeantwoorde vragen
zijn. Dan dank ik de Staatssecretarissen voor de beantwoording in de tweede termijn,
en dan zal ik nog even kort recapituleren. Wij hebben een aantal toezeggingen. Het
eerste punt is dat de heer Six Dijkstra een tweeminutendebat heeft aangevraagd. Vervolgens
hebben we enkele toezeggingen.
− De Staatssecretaris Digitalisering en Koninkrijksrelaties informeert de Kamer voor
april 2025 per brief over de motie-Omtzigt/Six Dijkstra inzake een wetenschappelijke
standaard voor modellen en algoritmes die afdwingbaar, openbaar en navolgbaar zijn,
en de Staatssecretaris zal in deze brief tevens ingaan op het vijfsterrenmodel voor
algoritmes.
Staatssecretaris Szabó:
Dat klopt, voorzitter.
De voorzitter:
Dank u wel voor de bevestiging. Dan hebben we nu nog:
− De Staatssecretaris Digitalisering en Koninkrijksrelaties verwacht de Kamer voor het
eind van 2025 te informeren over de analyse van de casuïstiek bij het Netwerk van
Publieke Dienstverleners.
Staatssecretaris Szabó:
Dat klopt inderdaad.
De voorzitter:
Dank u wel. Dan hebben we:
− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe dat de Kamer op
Verantwoordingsdag 2025 middels een Jaarrapportage Bedrijfsvoering Rijk wordt geïnformeerd
over het vullen van het Algoritmeregister.
Staatssecretaris Szabó:
Klopt, voorzitter.
De voorzitter:
Dan hebben wij de toezegging:
− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe de Kamer eind Q1,
begin Q2 te informeren over de vraag van het lid Koekkoek aangaande de motiveringsplicht
in de herziene Awb.
Staatssecretaris Szabó:
Klopt, voorzitter.
De voorzitter:
Dan hebben we:
− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe dat in de Nederlandse
Digitaliseringsstrategie de term «ontwerpprincipes» zal worden meegenomen. Dat is
naar aanleiding van een vraag van de heer Buijsse van de VVD.
Staatssecretaris Szabó:
Klopt.
De voorzitter:
Dank u wel.
− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe bij de Algemene
Rekenkamer te inventariseren over de onderzoeken over algoritmes, en zal de Kamer
nader informeren over de uitkomsten hiervan. Dat is naar aanleiding van de vragen
van het lid Vermeer van de BBB.
Staatssecretaris Szabó:
Klopt.
De voorzitter:
Dank u wel.
− De Staatssecretaris Digitalisering en Koninkrijksrelaties zegt toe binnen drie weken
nog schriftelijk terug te komen op de opgevraagde analyse, zoals benoemd door het
lid Ergin van DENK.
Staatssecretaris Szabó:
Klopt.
De voorzitter:
Dank u wel.
− De Staatssecretaris Rechtsbescherming zegt toe een schriftelijke reactie met de Kamer
te delen op het genoemde artikel van Follow the Money inzake Preselect Recidive voor
het debat Bescherming persoonsgegevens en digitale grondrechten op 6 februari aanstaande.
Ik zie de Staatssecretaris knikken. Dank u wel.
− En de Staatssecretaris Rechtsbescherming zegt toe dat zodra de zelfevaluatie van de
Autoriteit Persoonsgegevens gereed is, en dat is naar verwachting eind Q1, de Staatssecretaris
spoedig daarna een reactie hierop met de Kamer zal delen.
Dan zie ik verder geen op- en aanmerkingen. Ik dank iedereen voor het mooie debat
dat we hebben gevoerd. Ik dank ook iedereen voor de aanwezigheid en de beantwoording
van de vragen. Ik sluit het debat bij dezen.
Sluiting 21.47 uur.
Ondertekenaars
-
Eerste ondertekenaar
N.T.P. Wingelaar, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
L. Boeve , griffier -
Mede ondertekenaar
J.M. Nijhof-Leeuw, voorzitter van de vaste commissie voor Financiën
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.