Verslag van een commissiedebat : Verslag van een commissiedebat, gehouden op 15 februari 2023, over inzet algoritmes en data-ethiek binnen de rijksoverheid
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 982
VERSLAG VAN EEN COMMISSIEDEBAT
Vastgesteld 15 maart 2023
De vaste commissie voor Digitale Zaken heeft op 15 februari 2023 overleg gevoerd met
mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering, over:
− de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties d.d. 10 juni
2021 inzake voortgang AI en algoritmen (Kamerstuk 26 643, nr. 765);
− de brief van de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties d.d.
12 mei 2021 inzake aanbieding afschrift van de brief aan de Nationale ombudsman in
reactie op het rapport De burger is geen dataset (Kamerstuk 26 643, nr. 756);
− de brief van de president van de Algemene Rekenkamer d.d. 26 januari 2021 inzake rapport
Aandacht voor algoritmes (Kamerstuk 26 643, nr. 737);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 26 oktober
2021 inzake reactie op het rapport «Xenophobic machines» van Amnesty International
(Kamerstukken 26 643 en 31 839, nr. 799);
− de brief van de president van de Algemene Rekenkamer d.d. 18 mei 2022 inzake rapport
Algoritmes getoetst. De inzet van 9 algoritmes bij de overheid (Kamerstuk 26 643, nr. 854);
− de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties d.d. 26 november
2021 inzake beantwoording vraag, gesteld tijdens het commissiedebat Telecomraad van
24 november 2021, over verplichte mensenrechtentoets bij hoogrisico-AI-systemen (Kamerstukken
26 643 en 32761, nr. 800);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 4 juli
2022 inzake reactie op het onderzoeksrapport van Amnesty International getiteld Xenofobe
machines (Kamerstukken 33 826 en 26 643, nr. 45);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 7 oktober
2022 inzake beantwoording vragen commissie over het rapport Algoritmes getoetst. De
inzet van 9 algoritmes bij de overheid (Kamerstuk 26 643, nr. 854) (Kamerstuk 26 643, nr. 923);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 22 december
2022 inzake inrichtingsnota algoritmetoezichthouder (Kamerstuk 26 643, nr. 953);
− de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 21 december
2022 inzake stand van zaken Algoritmeregister (Kamerstuk 26 643, nr. 950).
Van dit overleg brengt de commissie bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de commissie, Kamminga
De griffier van de commissie, Boeve
Voorzitter: Kamminga
Griffier: Muller
Aanwezig zijn negen leden der Kamer, te weten: Van Baarle, Bouchallikh, Dekker-Abdulaziz,
Kamminga, Kathmann, Koekkoek, Leijten, Rahimi en Slootweg,
en mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering.
Aanvang 14.01 uur.
De voorzitter:
Aan de orde is het commissiedebat Inzet algoritmes en data-ethiek binnen de rijksoverheid
van de vaste commissie voor Digitale Zaken. Ik heet de Staatssecretaris van harte
welkom en uiteraard de leden en een mooie volle publieke tribune. Welkom allemaal
en ook welkom aan de mensen die thuis of elders meekijken naar dit debat. We hebben
drie uur uitgetrokken voor het debat. We zijn met vijf leden van de zijde van de Kamer,
waarvan er twee ons iets eerder moeten verlaten. Overigens met goede reden, want de
heer Van Baarle zit ook in het plenaire debat en de heer Slootweg moet nog naar een
technische briefing over een ander onderwerp dat ook alles met digitaal te maken heeft,
namelijk de digitale euro. Hij zal zich later weer bij ons voegen. Daarom zitten ze
vooraan.
Ik stel aan de leden voor om drie interrupties in tweeën aan elkaar te doen. Dat betekent
drie interrupties en een vervolgvraag. U mag een vraag stellen en een vervolgvraag,
want ik merk toch dat dat vaak fijner werkt. We kijken even naar de tijd, maar volgens
mij is het uitgangspunt prima. Dan doen we hetzelfde in de termijn van de Staatssecretaris.
Aangezien een aantal leden eerder weg moeten, wil ik de heer Van Baarle namens DENK
het woord geven voor zijn inbreng.
De heer Van Baarle (DENK):
Voorzitter. Is inmiddels al bekend wat het aantal algoritmes binnen de overheid met
automatische besluitvorming is? Kan de Staatssecretaris inmiddels aangeven of en,
zo ja, hoeveel zelflerende algoritmes de overheid gebruikt? Een aantal maanden geleden
kon de Staatssecretaris hier schriftelijk geen antwoord op geven. Dit roept vragen
op. We hebben een doorlichting gedaan van de algoritmen op discriminatie, de uitvoering
van de befaamde motie nr. 13, heet-ie volgens mij in het jargon. Wat is die doorlichting
waard geweest, als we na die doorlichting niet weten welke algoritmen we binnen de
overheid hebben? Wat is er dan precies allemaal doorgelicht? Bij die doorlichting
kijk je toch naar alle algoritmen en of ze discrimineren.
Ik las in de schriftelijke beantwoording ook dat er nog geen sprake is van een geharmoniseerd
toetsingskader van het Rijk. Dit verbaasde mij, want mijn impressie was dat we wel
een toetsingskader hebben. Maar als dat niet zo is, waar is dan in die doorlichting
aan getoetst? Is dat dan niet totale willekeur?
Als de Staatssecretaris geen antwoord kan geven op deze vragen, dan heeft de fractie
van DENK ernstige twijfels bij de uitvoering van de doorlichting op discriminatie
in de algoritmen. Dan herhaalt de fractie van DENK het pleidooi om deze doorlichting
extern te laten toetsen. We hebben met verheuging gezien dat de Staatssecretaris dit
alsnog wil laten doen, maar we willen graag vragen waarom de keuze is gemaakt om de
ADR dit te laten doen; de ADR die jarenlang aan de lat stond om toezicht te houden
op onder andere de Belastingdienst en nooit heeft geconstateerd dat er zoiets plaatsvond
als de toeslagenmisdaad. Is het wel de juiste instantie om dit te laten doen?
Ik constateer dat de richtlijnen binnen de overheid allemaal redelijk vrijblijvend
zijn. De Staatssecretaris strooit met handleidingen en spreekt heel vaak over stimuleren
in plaats van verplichten. De vraag van DENK blijft, zoals we ook gevraagd hebben
in een aangenomen motie: wanneer komen nou de bindende criteria? Daarbij is het steeds
maar wachten op de AI Act. Dat is een beetje het ei waarop gebroed wordt en waar we
volgens de Staatssecretaris alles mee gaan redden. Maar hoe concreet worden nou de
antidiscriminatiecriteria in die AI Act? Er wordt alleen gesproken over het registreren
van bijvoorbeeld hoogrisicoalgoritmes en dat daar de verscherpte richtlijnen voor
gaan gelden. Wat is daarin de definitie van hoog risico waar we op afkoersen? Hoe
sorteren we nu voor op de invoering van de AI Act? Kan de Staatssecretaris nu een
antwoord geven op de vraag hoe we die nationaal gaan handhaven en wie dat gaat doen?
Dan de toezichthouder. De fractie van DENK is blij dat die toezichthouder er komt,
maar is wel teleurgesteld in de rol. Want het is eigenlijk een toezichthouder die
geen toezicht houdt. Je zou toch zeggen dat een toezichthouder op zijn minst toezicht
moet gaan houden of we de bestaande normen goed toepassen, maar dat gaat de toezichthouder
niet doen. Die gaat regie voeren en heel veel overleggen. Wat is de toegevoegde waarde
van een toezichthouder die geen toezicht gaat houden, die niet als dagelijkse taak
heeft om organisaties en bedrijven binnen te lopen en te zeggen: «Trek uw lades open,
uw computers. We willen weten wat u daar doet. Wij gaan dat controleren»? Waarom is
dat niet de primaire taakopvatting, vraag ik aan de Staatssecretaris.
De Staatssecretaris gaf in de schriftelijke behandeling ook aan dat zij geen zicht
heeft op de algoritmes die overheidsinstanties hebben uitbesteed in de ontwikkeling.
Mijn vraag is of de Staatssecretaris dat nu wel heeft. Want als we algoritmes uitbesteden,
hebben we als overheid dus heel weinig zicht op hoe ze ontwikkeld worden. Mijn vraag
is of we een overzicht kunnen krijgen van het aantal algoritmes waarvan de ontwikkeling
is uitbesteed en of de Staatssecretaris bereid is om met afspraken te komen of in
ieder geval een modelcontract waarin we voor de uitbesteding van algoritmes heel harde
afspraken maken ten aanzien van non-discriminatie.
De voorzitter:
U zit al op meer dan meer dan vierenhalve minuut en u had vier minuten.
De heer Van Baarle (DENK):
O, o.
De voorzitter:
Ik wil u dus vragen om tot een afronding te komen.
De heer Van Baarle (DENK):
Dan rond ik af met een vraag over een motie die wij hebben aangehouden, die de regering
verzoekt tot het opstellen van protocollen over hoe te handelen als men discriminatie
vindt in algoritmes. Ik wil de Staatssecretaris vragen hoe zij naar dit idee kijkt.
De voorzitter:
Meneer Van Baarle, dank u wel voor uw inbreng namens DENK. Welkom aan de leden die
wat later binnenkwamen. Het is wellicht goed om te weten dat ik heb gezegd dat ik
drie interrupties in tweeën toesta. U heeft dus de gelegenheid om een vervolgvraag
te stellen bij een interruptie. Dit geldt per termijn. Dan geef ik nu het woord aan
de heer Slootweg, CDA.
De heer Slootweg (CDA):
Dank u wel, voorzitter. Een deel van de titel van dit commissiedebat kan spoedig aanleiding
geven voor filosofische bespiegelingen. Data-ethiek, ethiek die betrekking heeft op
datagegevens. De afbakeningen lijken gemaakt te worden door het te hebben over de
inzet van algoritmes die uitgevoerd worden door de rijksoverheid. Mijn bijdrage zal
ik daarom richten op drie elementen: de toezichthouder, het register en de gegevensbeveiliging
bij ambtenaren.
Voorzitter. De keuze is gemaakt om de Autoriteit Persoonsgegevens uitvoerder te maken
van de opdracht rijksalgoritmetoezichthouder. De Staatssecretaris managet de verwachtingen
door aan te geven dat met de beschikbare middelen deze toezichthouder niet zelf alle
vragen en problemen kan oplossen. Zowel door de plek als organisatieonderdeel bij
de Autoriteit Persoonsgegevens als door de hierboven geformuleerde reikwijdte is de
algoritmetoezichthouder misschien eerder een expertisecentrum dat de samenwerking
op het algoritmetoezicht moet optimaliseren dan een alomvattende toezichthouder op
alle algoritmes die invloed hebben op het maatschappelijke verkeer. Deelt de Staatssecretaris
deze opvatting?
De voorzitter:
Voordat u uw betoog vervolgt, heeft mevrouw Leijten van de SP een interruptie.
Mevrouw Leijten (SP):
Welkom aan de heer Slootweg. Fijn om hem weer als collega in ons midden te hebben.
Scherp als altijd, wou ik zeggen. Ik heb wel een vraag aan hem en aan het CDA. Deze
scherpe analyse dat er eigenlijk helemaal geen toezichthouder is, maar hooguit een
expertisecentrum, hebben wij ook gemaakt. Wat vindt het CDA daar nou van? Is dat conform
de afspraken in het regeerakkoord wat het CDA betreft en is het in lijn met wat hij
maatschappelijk wenselijk vindt als het gaat over de inzet van algoritmes en het toezicht
daarop?
De heer Slootweg (CDA):
Ik denk dat dit zeer terechte vragen zijn van mevrouw Leijten. Ik denk dat wij nu
eigenlijk in de opbouw zijn naar iets van een toezichthouder, die volgens ons veel
meer invloed zal hebben. Ik kom later in mijn vragen op punten als of er niet een
wettelijke grondslag moet zijn als je algoritmes gebruikt. Ik denk dat het op dit
moment ook weer niet zo gek is dat dit in de zoektocht naar hoe je dit op een goede
manier kan doen de eerste stappen zijn. Maar ik wil wel verkennen wat nou die reikwijdte
is en hoe we die zo breed mogelijk kunnen maken daar waar sommige algoritmes zodanige
gevolgen kunnen hebben dat het de rechtsbescherming van onze inwoners aantast.
Mevrouw Leijten (SP):
Ik ben het in grote lijnen eens met de heer Slootweg dat we nog in de fase van verkennen
zijn, maar daarmee is eigenlijk het besluit dat genomen is om de AP maar de autoriteit
te maken of het expertisecentrum – ik vind dat heel treffend, zoals ik al zei – wel
problematisch. Want in de verkenning van wat we willen, welke impact het heeft op wetgeving, waar we staan, of het
wenselijk is hoe we ze toepassen en hoe we uiteindelijk van alles toetsen, kan het
best weleens zijn dat we bijvoorbeeld de Algemene Rekenkamer een veel logischere toezichthouder
vinden vanuit de rol die die al heeft. Die kijken wel in de algoritmes. Die doen niet
alleen maar: hebben we ze in beeld en kennen we misschien wat codes? En dat is misschien
wel wat we zoeken. Is er dan bij het CDA ook de mogelijkheid om in die verkenning
nog af te wijken van de keuzes die de Staatssecretaris nu als het ware al heeft gemaakt?
De heer Slootweg (CDA):
Ik begrijp de vraag en toch denk ik dat ik wel blij ben dat we nu deze eerste stappen
maken. Ik zou het ook jammer vinden als er op dit moment veel energie gaat zitten
in de vraag wat nou de plek is in plaats van dat wij de toezichthouder zo veel mogelijk
tanden geven. Volgens mij ontstaat er altijd weer een natuurlijk moment in de tijd
door te zeggen: moet die nou hier of moet die nou daar? In eerste instantie wil ik
ervoor zorgen dat die tanden zo veel mogelijk ontwikkeld worden.
De voorzitter:
Mevrouw Leijten, deze tel ik dan wel als tweede interruptie.
Mevrouw Leijten (SP):
Voorzitter, ik ken u als heel eerlijk en rechtvaardig. Mijn lot ligt in uw handen.
Ik zou tegen de heer Slootweg willen zeggen dat we ons daarmee wel weggeven. Ik weet
nog dat de Kamer drie jaar geleden zei: we moeten de Uitvoeringsorganisatie Herstel
Toeslagen nou echt een kans geven, want er zit zo veel energie in. Nu zijn we drie
jaar verder en nu is het argument: nee, we kunnen het niet meer over een andere boeg
gooien, want er zit zo veel energie in. Niks ten nadele van de mensen die bij het
expertisecentrum werken en de Autoriteit Persoonsgegevens als instantie, maar de keuze
om de algoritmetoezichthouder en het algoritmeregister ook op die plek neer te leggen
bepaalt wel wat we straks kunnen doen. Dan is de wijziging niet meer mogelijk. Ik
zou toch willen dat het CDA dat beseft.
De heer Slootweg (CDA):
Ik zie dit meer als een aansporing om het denken gewoon niet stil te zetten. Ik zal
deze periode in ieder geval willen gebruiken om te kijken hoe we de functie van toezichthouder
meer tanden en body kunnen geven. Ik hoop dat ik mevrouw Leijten dan ook aan mijn
kant vind; dat weet ik eigenlijk wel zeker. Voor de rest zie ik het echt gewoon als
aansporing om niet stil te blijven staan.
De voorzitter:
Vervolgt u uw betoog.
De heer Slootweg (CDA):
Dan kom ik eigenlijk tot mijn vragen. Die gaan over de macht, over het min of meer
dwingend kunnen opleggen van regels, afspraken en het formuleren van normen. Welke
doorzettingsmacht heeft de algoritmetoezichthouder om te komen tot een gezamenlijke
normuitleg? Speelt hij een rol in het ontwikkelen van nieuwe normen en op welke wijze
kan hij deze afdwingen? Een belangrijke voorvraag voor mijn fractie is: speelt hij
een rol in het toestaan dat algoritmes sowieso gebruikt gaan worden in de uitvoering?
Voorzitter. Het CDA ziet zeer wel het nut in van technologie en digitalisering om
de werking en verbanden in onze samenleving ten dienste te staan, maar de werkelijkheid
is anders. Een zeer ethische vraag betreft de zorg over het eigenaarschap van data.
Heb ik er eigenlijk nog wel zeggenschap over als ik deze bijvoorbeeld upload? We zien
wel degelijk dat analyse en deling van gegevens door overheidsorganisaties noodzakelijk
zijn om bepaalde kwaden te bestrijden. Denk aan de bestrijding van zware ondermijnende
criminaliteit en weerzinwekkende delicten als mensenhandel en kinderporno. Die bestrijding
schuurt met de bescherming van de persoonlijke levenssfeer. Die spanning moeten we
niet alleen onder ogen zien, maar ook proberen op te lossen. Is de Staatssecretaris
het met het CDA eens dat de rechtsbescherming van burgers in het bestuursrecht moet
worden versterkt wanneer zij overheidsorganisaties willen aanspreken op fout gebruik
van algoritmes? Heeft de wetgever niet nadrukkelijk de opdracht om in wet- en regelgeving
af te wegen hoe en waar algoritmes mogen worden benut? Kan een algoritmetoezichthouder
niet pas functioneren wanneer de normstelling zelf in de wet is vastgelegd in plaats
van dat achteraf wordt beoordeeld of de vertaling die heeft plaatsgevonden in algoritmes,
wel in orde is?
Voorzitter. De Staatssecretaris heeft aangegeven dat het algoritmeregister een belangrijke
bijdrage moet leveren aan het beter uitlegbaar maken van de toepassing en de uitkomst
van algoritmes. Ze heeft als uitgangspunt meegegeven dat overheidsorganisaties zelf
verantwoordelijk zijn voor de inzage in algoritmes en daarmee het opstellen en het
beheer van het algoritmeregister. Maar wat zijn de mogelijkheden voor de toezichthouders
wanneer een overheidsorganisatie dit niet nakomt? Een van de belangrijkste doelen
is het verhogen van transparantie. Is de Staatssecretaris het met ons eens dat die
transparantie pas bereikt kan worden als het register ook een heldere en toegankelijke
uitleg van de werking van het algoritme bevat? Wat ons betreft zou onder het kopje
«toepassing» altijd een heldere omschrijving toegevoegd moeten worden. Een blik in
het register leert dat deze nu vaak nog ontbreekt.
Ten slotte. Ik ben over mijn tijd heen, maar de gegevensbescherming bij ambtenaren
is nog wel een punt. Voor de veiligheid is er in de Verenigde Staten voor gekozen
dat men bijvoorbeeld TikTok niet meer mag gebruiken. Zouden ook wij daarin niet naïef
moeten zijn, en zouden we dus bijvoorbeeld die weg van de Amerikaanse overheid volgen?
Ik zou graag de opvatting van de Staatssecretaris daarover horen.
De voorzitter:
Dank u wel, meneer Slootweg van het CDA. Ik was bij de heer Van Baarle enigszins coulant,
dus dat ben ik ook bij u geweest en dat zal ik ook bij anderen zijn. Maar dit is geen
oproep om allemaal richting de vijf minuten te gaan, vertel ik er alvast bij. Ik vind
vierenhalve minuut namelijk wel de max. U heeft nog een interruptie van mevrouw Dekker-Abdulaziz,
D66.
Mevrouw Dekker-Abdulaziz (D66):
Goed om te horen dat het CDA ook overweegt om TikTok te verbieden voor ambtenaren,
want dat hebben wij toevallig twee weken geleden aan de Staatssecretaris gevraagd.
Hierbij sluit ik via deze vraag even bij u aan met de reflectie ...
De heer Slootweg (CDA):
Eigenlijk sluit die dus aan bij uzelf.
Mevrouw Dekker-Abdulaziz (D66):
Ja, precies. Dat wilde ik even bevestigen.
De voorzitter:
Dan gaan we verder naar de volgende spreker van de Kamer, mevrouw Bouchallikh, GroenLinks.
Mevrouw Bouchallikh (GroenLinks):
Dank u wel, voorzitter. Hoe we omgaan met het gebruik van algoritmes door de overheid
staat eindelijk meer op de politieke agenda. Er is sinds kort een algoritmeregister
en ook is recent de algoritmetoezichthouder van start gegaan. De eerste institutionele
stappen zijn gezet en dat is goed, maar bij het lezen van de stukken voor dit debat
zag ik ook hoeveel er nog moet gebeuren. Eerste stappen zijn dan helaas niet genoeg.
Ook staan er nog veel vragen open.
Allereerst wil ik het hebben over het gebruik van algoritmes. We hebben het veel over
regulering en controle – dat is nodig – maar we moeten ons ook afvragen wanneer de
overheid überhaupt algoritmes moet gebruiken. Dat is een vraag die ook het Rathenau
Instituut terecht stelt. Algoritmes lijken inmiddels soms vanzelfsprekend, maar iedere
keer zou opnieuw moeten worden beoordeeld of er geen andere opties zijn om hetzelfde
doel te bereiken. Is de Staatssecretaris het hiermee eens? Zo ja, hoe wordt deze proportionaliteitstoets
gedaan? Als er wordt besloten om algoritmes te gebruiken om een bepaald doel te bereiken,
moet ervoor worden gezorgd dat de juiste typen algoritmes zo zorgvuldig mogelijk worden
ingezet, zodat discriminerende risico-indicatoren voorkomen worden.
Daarmee kom ik de op de tweede zorg die wij hebben, de registraties in het algoritmeregister.
Uit de stukken blijkt dat er nog maar heel weinig algoritmes worden geregistreerd.
Ook algoritmes met grote risico's, die bijvoorbeeld worden gebruikt voor fraudeopsporing,
blijken nog niet geregistreerd. De rijksoverheid, waar het kabinet direct voor verantwoordelijk
is, heeft nog geen 30 algoritmes geregistreerd, terwijl er minstens 86 zijn volgens
de Algemene Rekenkamer. Waarom is dit nog niet gebeurd?
Wat gaat het kabinet doen om overheden ertoe te bewegen dat algoritmes zo snel mogelijk
geregistreerd worden? Wat is de deadline wat de Staatssecretaris betreft? Kunnen de
algoritmes die de grootste impact hebben met voorrang worden geregistreerd?
De volgende zorg die wij hebben, is de mensenrechtentoets. Tot nu toe is nog geen
enkele toets uitgevoerd. Hoe kan dat? De Kamer heeft in een motie uitgesproken dat
deze mensenrechtentoets verplicht moet zijn. De Staatssecretaris heeft dat ook bevestigd,
maar toch gebeurt dit nog niet. Wat gaat de Staatssecretaris doen om ervoor te zorgen
dat de mensenrechtentoetsen worden uitgevoerd en dat deze ook daadwerkelijk verplicht
worden?
Etnisch profileren is ook een schending van mensenrechten. In de motie van mijn collega
Klaver, die inmiddels twee jaar geleden is aangenomen, stond expliciet dat de regering
het gebruik van nationaliteit, etniciteit en geboorteplaats als datavariabelen voor
risicomodellen en -profielen volledig uit moest sluiten. Kan de Staatssecretaris aangeven
hoe en of dit deel van de motie inmiddels is uitgevoerd? Zo niet, wat gaat het kabinet
dan voor actie ondernemen om dit alsnog te doen? Eerder pleitten wij ook voor een
verbod van etnisch profileren, zoals onder andere Amnesty en Bits of Freedom ook deden,
maar de Staatssecretaris zag dit eerder niet op diezelfde manier zitten. Hoe ziet
zij dit nu en wat doet zij wel om te voorkomen dat burgers via algoritmes gediscrimineerd
worden? Hoe kunnen burgers daar überhaupt achter komen?
Ik heb nog kort twee andere punten over het register. Het College voor de Rechten
van de Mens waarschuwt dat alleen registreren van algoritmes niet voldoende is, want
systemen moeten ook continu goed worden gecontroleerd. Ook heeft het college zorgen
over de transparantie en de bruikbaarheid van de informatie in het register voor burgers.
Graag op beide punten een reactie van de Staatssecretaris. Kan zij uitleggen hoe zij
de terechte zorgen van het college wegneemt?
Het is goed dat de algoritmetoezichthouder er eindelijk is, zoals ik eerder ook heb
gezegd. Ik heb in het vorige debat ook gesteld dat capaciteit ontzettend belangrijk
is. Vandaag heb ik een vraag over de doorzettingsmacht van de toezichthouder. Eerder
werd die «de tanden» genoemd. Wat ons betreft moeten die zo scherp mogelijk zijn.
Uiteraard hoop ik op harmonie, maar hoe ziet de escalatieladder eruit als daar geen
sprake van is? Hoe wordt gegarandeerd dat de toezichthouder het laatste woord heeft
en daarin ook wordt ondersteund vanuit het ministerie? Wanneer verwacht de Staatssecretaris
dat de toezichthouder op volle sterkte kan opereren?
Dank u wel.
De voorzitter:
Dank u wel, mevrouw Bouchallikh. Keurig binnen de vier minuten. Complimenten daarvoor.
Ik zie geen interrupties, dus dan gaan we door naar de volgende spreker van de Kamer,
mevrouw Dekker-Abdulaziz namens D66.
Mevrouw Dekker-Abdulaziz (D66):
Dank, voorzitter. Het gebruik van algoritmen door de overheid is een tweesnijdend
zwaard. Zoals verschillende rapporten, van onder andere de Algemene Rekenkamer, laten
zien, zorgt het gebruik van algoritmen enerzijds voor tijdbesparing en efficiëntie
in het werk van de overheid. Anderzijds kleven er risico's aan het niet juist gebruiken
van algoritmen. De voorbeelden waarbij het fout ging, kennen we hier allemaal. Het
is dus van belang dat wij als politiek randvoorwaarden scheppen waarin algoritmes
goed kunnen worden toegepast en dat er toezicht is op de toepassing daarvan.
Voorzitter. Ik wil het over de volgende drie zaken hebben. De toezichthouder en de
AP, het Algoritmeregister en de datahonger bij de overheid.
Ten eerste, D66 is blij dat de Staatssecretaris opvolging geeft aan de afspraak uit
het coalitieakkoord. Een toezichthouder op algoritmes bij de overheid kan bijdragen
aan de transparantie voor burgers en de bevordering van samenwerking binnen bestaande
structuren. Wij vragen ons af hoe de governance er nu precies uit komt te zien. Is
de nieuwe rol van de AP meer als overlegorgaan of een uitvoerende toezichthouder?
Handelt de toezichthouder reactief of kan er juist voorkomend worden gehandeld? Wij
gaan ervan uit dat de nieuwe toezichthouder zich uitsluitend richt op het Rijk en
niet op bedrijven en lagere overheden. Hoe verhoudt de AP zich in haar nieuwe rol
tot de sectorale bestaande toezichthouders, ook qua doorzettingsmacht? In hoeverre
hoort het opleggen van boetes ook bij de nieuwe rol van de AP, gelet op de drie doelen
uit de inrichtingsnota? Ten slotte, voorzitter. Op welke termijn kan de Staatssecretaris
de Kamer informeren of de nieuwe wet- en regelgeving nodig is en of er aansluiting
gezocht wordt bij de EU-verordening?
Voorzitter, ten tweede. Er is een eerste versie van een algoritmeregister. Wat ons
betreft is dat een goed beginpunt, maar daar moeten de komende tijd nog stappen op
gezet worden. Wat ons betreft blijven de sectorale toezichthouders toezien op de sectorale
algoritmes. Laten we voorkomen dat we door te veel hooi op onze vork te nemen, verzanden
in een onoverzichtelijke hoeveelheid gegevens. Het register heeft wat ons betreft
nut door de algoritmes van de rijksoverheid verplicht inzichtelijk te maken voor eenieder
die ermee te maken krijgt. Kan de Staatssecretaris hierop reflecteren?
Daarnaast is het teleurstellend dat er weinig overheidsonderdelen vrijwillig meewerken
aan het Algoritmeregister, zeker omdat er nog steeds verschillende hoogrisicoalgoritmen
door de overheid worden gebruikt, zoals beschreven in het rapport van vorig jaar van
de Algemene Rekenkamer. Welke instrumenten heeft de Staatssecretaris om het aantal
algoritmen in het register te vergroten in afwachting op het verplichtende karakter?
Ten slotte, voorzitter. De overheid is een gulzige dataverzamelaar. Vaak is dat noodzakelijk
voor een goede dienstverlening, maar soms worden er gegevens verzameld die niet noodzakelijk
zijn voor het uitvoeren van bepaalde overheidstaken. Ik heb hier eerder al vragen
over gesteld, zoals bij de begrotingsbehandeling vorig jaar. Het rapport van de Algemene
Rekenkamer waar ik zojuist al naar verwees, concludeert dat er bij de politie nog
steeds meer gegevens worden verzameld dan noodzakelijk zijn voor de berekeningen.
De Raad van State adviseert in haar rapport Digitalisering in wetgeving: maak afspraken
over datagebruik. Afgelopen maandag heeft de Minister van BZK nog de Big Brother Award
mogen ontvangen. Kortom, er is ruimte voor verbetering. De VNG stelt voor om een transparantiebeginsel
op te nemen in de algemene beginselen van behoorlijk bestuur. Hoe kijkt de Staatssecretaris
hiernaar? Welke acties worden verder in gang gezet om orde te brengen in de verzameldrift
van data van de overheid? Ten slotte wil ik me aansluiten bij de vragen van GroenLinks
over de mensenrechtentoets.
Dank u, voorzitter.
De voorzitter:
Dank u wel, mevrouw Dekker-Abdulaziz namens D66. Ik kijk even rond. Ik zie geen interrupties.
Dan is het woord aan de heer Rahimi, VVD.
De heer Rahimi (VVD):
Dank u wel, voorzitter. Afgelopen jaar heb ik mij vanuit de VVD in kunnen zetten voor
ons mooie midden- en kleinbedrijf. Vanaf heden mag ik mij als VVD-Kamerlid, en tevens
oud-IT-ondernemer, met genoegen ook bezighouden met Digitale Zaken en Digitale Overheid. Dat is een portefeuille die zowel
de veiligheid als de economische situatie van de mensen raakt. Digitale zaken gaan
niet alleen over IT- en softwaresystemen. Tijdens mijn studie informatica kwamen juist
veel ethiek, logica en transparantie over ICT-systemen naar voren. Het is bijvoorbeeld
in gebruik van bepaalde technieken en functies verantwoord of niet binnen de IT. Dat
is een heel belangrijk punt.
Voorzitter. Elke maand neemt de overheid miljoenen beslissingen, bijvoorbeeld over
wie wel en wie geen huurtoeslag krijgt. Voor al die beslissingen gebruikt de overheid
algoritmes. Er zitten kansen maar ook risico's aan het gebruik van deze algoritmes.
Een zeer belangrijk punt hierbij is hoe we zorgen voor een eerlijke totstandkoming
van de algoritmes.
Voorzitter. Zonder algoritmes zouden we namelijk ook heel veel meer ambtenaren moeten
hebben om elke dag al die beslissingen die de overheid moet nemen, te realiseren.
Het moet duidelijk zijn dat de inzet van algoritmes en data-analyse binnen de overheid
niet leidt tot beperking van de persoonlijke vrijheid en privésfeer van burgers en
ondernemers. Ik wil de Staatssecretaris vragen hoe zij dit wil verwezenlijken. Tevens
wil ik weten hoe zij ervoor gaat zorgen dat deze uitkomst ethisch verantwoord en in
overeenstemming met de juridische principes van onze samenleving is, zodat dit niet
leidt tot ongelijke behandeling van burgers op basis van bijvoorbeeld ras, gender
of socio-economische status.
Voorzitter. Ik ben blij dat er een start is gemaakt met het algoritmeregister, waarin
nu inmiddels 109 algoritmes geregistreerd staan. De VVD zou graag willen dat de Staatssecretaris
meerdere instanties najaagt om eerder dan eind 2024 hun algoritmes te laten registreren.
Alle zbo's, provincies, gemeentes en waterschappen moeten ook op een geautomatiseerde
manier het register vullen. Nu gebeurt dat niet automatisch en op verschillende manieren.
Voorzitter. Wat betreft de toetsing van algoritmes heeft de Autoriteit Persoonsgegevens
dus de taak om deze uit te voeren. Er is hiervoor ook een apart team aangesteld. Daarbij
heb ik wel enkele vragen. Wat is het mandaat van de Autoriteit Persoonsgegevens? Kan
de Autoriteit Persoonsgegevens ook handhaven? Heeft de Autoriteit Persoonsgegevens
ook genoeg kennis in huis om alles te toetsen? Test de Autoriteit Persoonsgegevens
ook op pilot- en demoalgoritmes? Ik denk dat het goed is dat er getoetst wordt op
zowel bestaande als nieuwe algoritmes. Daarbij is het van belang dat niet alleen getoetst
wordt of deze algoritmes, maar ook of de besluiten die daaruit komen en die grote
effecten hebben op het leven van mensen, aan de AVG voldoen. Gaat de Autoriteit Persoonsgegevens
helpen bij het maken van onderscheid tussen het verwerken van data en de algoritmes?
De werking van algoritmes uitleggen is complex. Hoe weet een burger wat het in normale
taal betekent?
Voorzitter. Naast de Autoriteit Persoonsgegevens zijn er verschillende andere toezichthouders
die ook toegevoegde waarde kunnen hebben. Ik wil de Staatssecretaris vragen hoe de
andere toezichthouders zich verhouden tot de Autoriteit Persoonsgegevens. Waar ligt
het zwaartepunt bij het toezicht? Wat is de relatie met de regelgeving die uit Brussel
komt? Welke wetgeving is er in Nederland nog nodig?
We hebben de komst van een algoritmeregister in het coalitieakkoord beloofd en nu
is er ook wat gedaan. Het is ook wel goed om aan te geven dat er wat gebeurt. Dat
is wel een compliment waard, ook al is het nog niet gevuld. Goed dat we dat dus doen.
Ik realiseer me echter wel dat we alleen met incidentele probleemaanpak bezig zijn.
Een structurele oplossing mist nog. We kunnen elke keer als er een incident met een
algoritme is reactief handelen. Dat is goed geweest voor het begin, maar nu moeten
we het inzichtelijk maken. We weten dat het een structureel probleem is, dus we moeten
het ook systematisch en structureel oppakken en oplossen, en wegblijven van incidentenpolitiek.
Denk hierbij bijvoorbeeld aan het proces van de controle van een jaarrekening van
de gemeente door de accountant.
Voorzitter. Tot slot. Wat de VVD betreft is het van belang dat we inzichtelijk maken
wat we verzamelen en waarom, en dat we in gewonemensentaal uitleggen wat we hiermee
doen. Dat is voor ons het vertrouwen terugwinnen en teruggeven. Ik vind dat we daarmee
op de goede weg zijn, maar we zijn er nog niet.
De voorzitter:
Dank u wel, meneer Rahimi. U heeft allereerst een interruptie van mevrouw Leijten
en daarna van mevrouw Kathmann. Mevrouw Leijten, SP.
Mevrouw Leijten (SP):
Het verhaal van de heer Rahimi over dat we geen incidentgedreven politiek moeten hebben,
is me uit het hart gegrepen. Maar laten we dan ook een principieel debat voeren. Wat
vindt de VVD van het gebruik van algoritmen binnen de overheid? Wanneer kan dat wel
en wanneer niet?
De heer Rahimi (VVD):
Ik gaf net al aan dat algoritmes gewoon nodig zijn, anders heb je honderdduizenden
ambtenaren nodig. Als je 107 rijdt en je krijgt een boete, is dat ook een algoritme.
Dus ja, die algoritmes heb je nodig. De vraag is niet wanneer wel en wanneer niet.
Wat ik alleen aangeef, is dat het belangrijk is dat dit inzichtelijk is en dat aan
de hand daarvan duidelijk is welke beslissingen worden genomen.
De voorzitter:
Er is een vervolgvraag van mevrouw Leijten, SP.
Mevrouw Leijten (SP):
Dit debat heet natuurlijk inzet algoritmes en data-ethiek, dus het gaat ook over wat
voor overheid je wil zijn en wanneer je iets toepast. Je kan wel zeggen «de techniek
is er, dus we doen het», maar dat is niet hoe we kijken naar de inzet van bepaalde
middelen. Als het bijvoorbeeld gaat over het geweldsspectrum of het veiligheidsspectrum,
kijken we ook altijd of het wenselijk en proportioneel is. Verbetert het de dienstverlening
van de overheid? Verbetert het de integriteit van de besluitvorming? Naar dat soort
zaken kijken we. Daarom stel ik wel de vraag aan de VVD: waar wel en waar niet en
op welke grond dan, bijvoorbeeld wat betreft automatische besluitvorming die te maken
heeft met inkomen en automatische besluitvorming op basis van profilering? Gebruiken
we automatische besluitvorming, of juist niet? Laten we er altijd nog een menselijke
toets zijn? Doen we dat dan vanuit dienstverlening of vanuit fraudeopsporing? Wat
zijn precies de ethische grondslagen voor de VVD-fractie als het gaat over de inzet
van algoritmen? Want als het alleen maar is «anders draait de overheid niet», dan
lopen we wel in een fuik.
De heer Rahimi (VVD):
Het enige wat ik aangeef, is dat die inzichtelijk gemaakt moeten worden, zodat we
kunnen toetsen wanneer wel en wanneer niet. Nu zijn die niet inzichtelijk, maar vraagt
mevrouw Leijten mij nu wel wanneer wel en wanneer niet. Dat weet ik niet.
De voorzitter:
Ik geef u nog één vervolgvraag omdat u dat de vorige keer niet gedaan heeft.
Mevrouw Leijten (SP):
Dan zijn ze op, voorzitter. Ik heb goed geteld. Nee, maar dit is volgens de SP wel
precies het probleem. We zitten in een situatie waarin we heel veel toepassen omdat
de techniek er was en omdat we dachten dat die techniek zou helpen. Er zijn echt situaties
waarin niet overtuigend vaststaat dat er met behulp van een algoritme een beter besluit
wordt genomen dan wanneer professionals dat nemen zonder algoritme. Zouden we dan
niet moeten zeggen dat je daarmee bijvoorbeeld terughoudend moet zijn? De politie
verzamelt veel meer data dan nodig is. Er zijn profielen in de maak die discriminerend
zijn. Dan zegt de VVD: we willen niet op incidenten reageren. Dat is heel goed, want
die wil je voorkomen. Maar wat is dan precies het normenkader en wat zijn nou precies
de afwegingen die de VVD-fractie wil maken voor de inzet van algoritmen in het publieke
domein en bij de beslissingen die de overheid neemt?
De heer Rahimi (VVD):
Ik zal proberen antwoord te geven. Met incidentenpolitiek bedoel ik het volgende.
Ik geef alleen aan dat er elke zoveel tijd iets naar buiten komt van «dit werkt niet
goed» of «deze data zijn verzameld». Wij hebben gewoon op verschillende vlakken oplossingen
voor verschillende systemen. Ik gaf net ook al een voorbeeld. Een gemeentelijke administratie
wordt bijvoorbeeld elk jaar gecheckt. Daar zijn afspraken over. Die hebben een toezichthouder,
die dat controleert. Ik geef alleen aan dat er niet alleen algoritmes zijn die er
nú zijn, maar dat er ook algoritmes zijn die gaan komen. We moeten nadenken over wat
voor effecten die hebben op welke data, maar daarvoor moeten die inzichtelijk zijn
en moeten we duidelijk hebben welke algoritmes we gebruiken en waarvoor. Kijk bijvoorbeeld
naar gebruik bij verwarde personen. Een algoritme is niets dan een calculatie. Mevrouw
Leijten heeft het over de techniek en IT, maar het is gewoon een calculatie. Als iemand
valt die een sensor heeft, gaat er een alarm af en kan er hulp worden ingeroepen.
Dat is ook een algoritme. Ik kan verder geen inhoudelijk antwoord geven op de vraag
welk algoritme goed is en welk algoritme niet. Er zijn tienduizenden algoritmes.
De voorzitter:
Ik vermoed dat u het hier niet helemaal over eens wordt in dit debat, maar wellicht
is er nog een keer een andere gelegenheid. Ik ga nu door naar mevrouw Kathmann namens
de PvdA voor een interruptie.
Mevrouw Kathmann (PvdA):
Ik wil de heer Rahimi bedanken voor zijn bijdrage. Sowieso ben ik blij met deze VVD-woordvoerder,
want er spreekt een hoop ambitie uit. Daarom zou ik de VVD graag het volgende willen
vragen. Bij die ambities hoort natuurlijk ook gewoon een goede toezichthouder. Hoe
kijkt de VVD ernaar dat we inderdaad, zoals het CDA het noemt, meer een expertisecentrum
hebben dan een echte toezichthouder, en dat het eigenlijk ook nog een expertisecentrum
zonder tanden is, aangezien expertisecentrums die doorgaans niet hebben? Kunnen we
op de VVD rekenen als het gaat om het realiseren van een echte toezichthouder?
De heer Rahimi (VVD):
Ik wil echt wegblijven van fake. U zegt: een echte toezichthouder. Ik begrijp wat
er gezegd wordt. Mijn punt is het volgende. De Autoriteit Persoonsgegevens controleert
op de persoonsgegevens, die data, maar er zijn zo veel meer dingen. Er zijn zo veel
meer toezichthouders. Er zijn toezichthouders op media en financiële toezichthouders.
Al die disciplines en domeinen hebben nu inderdaad niet één toezichthouder in zich.
Ik stel dus voor – dat vraag ik eigenlijk ook aan de Staatssecretaris – om te komen
tot een oplossing. Het feit dat wij nu dit debat hebben, is echt belangrijk. Het is
belangrijk dat we nu al structureel nadenken over de manier waarop we het in de toekomst
inrichten en dat toezicht gaan vormen. Hoe exact gaan we dat doen, en is de nieuwe
vorm goed of niet? Dat kan je nu niet beslissen en daarom heb ik die vraag ook gesteld.
Ik heb best wel wat vragen gesteld.
Mevrouw Kathmann (PvdA):
Maar dan is er in ieder geval dus wel een toezichthouder met tanden, op welke manier
dan ook, die kan handhaven en normen kan stellen.
De heer Rahimi (VVD):
Ja, want een toezichthouder zonder tanden ...
De voorzitter:
Dank u wel voor deze beantwoording. U heeft nog een aanvullende vraag van mevrouw
Kathmann. Dat wordt dan wel haar tweede interruptie.
Mevrouw Kathmann (PvdA):
Ik snap dat de VVD het misschien moeilijk vond om de vraag van mevrouw Leijten van
de SP te beantwoorden. Ik heb in het verlengde daarvan wel eenzelfde soort vraag aan
de VVD. Die gaat over de mensenrechtentoets die wordt toegepast. De heer Van Baarle
zei: we zitten allemaal op die AI Act te wachten en we kijken daar hoopvol naar uit,
maar we weten eigenlijk nu al dat een aantal zaken daarvan worden uitgesloten. Ik
ken de VVD als een partij die in het spanningsveld tussen veiligheid en het borgen
van privacy weleens een valse tegenstelling creëert. Hoe kijkt de VVD ernaar dat die
AI Act de mensenrechtentoets eigenlijk op enkele relevante gebieden uitsluit? Dan
gaat het bijvoorbeeld over wetshandhaving en grensmanagement. Vindt de VVD dat dat
wel zou moeten, dus dat je die mensenrechtentoets eigenlijk te allen tijde zou moeten
uitvoeren als je al die ambities wilt borgen waar de heer Rahimi het over had, dus
onafhankelijk van het terrein?
De heer Rahimi (VVD):
Volgens mij wordt er nu onderhandeld over de AI Act. Volgens mij is die nog niet rond.
Ik heb geen inhoudelijk idee over hoe die AI Act in elkaar moet zitten. Dat is ook
niet mijn woordvoerderschap, moet ik eerlijk bekennen. Maar nogmaals, bij algoritmes
wil je gewoon willen uitleggen: dit is bedacht om het vertrouwen terug te winnen.
Het is bedacht om te kunnen zien welke data erin gaan, wat er gebeurt, wat eruit komt
en welke beslissing er genomen wordt. Dat wordt inzichtelijk gemaakt. Daar gaat het
om. En daarvoor moet je niet 109 algoritmes hebben, maar alle algoritmes, over alle
lagen. En tegelijkertijd wil je exact weten dat het niet alleen maar voor het algemeen
belang is. Ik mag hopen dat wat wij doen als gemeente, provincie, waterschap of Tweede
Kamer altijd in het algemeen belang is. Je wilt zeggen voor welke wet het algoritme
wordt toegepast en waar het voor dient. Is het voor de Politiewet? Voor de Gemeentewet?
Dat is volgens mij belangrijk. Er moet dus inzichtelijk gemaakt worden wat erin gaat
en welk doel het dient. Op de vraag over de AI Act heb ik geen antwoord, sorry.
De voorzitter:
Dank u wel. Dan heeft u nog een interruptie van mevrouw Bouchallikh, GroenLinks.
Mevrouw Bouchallikh (GroenLinks):
Ik was echt blij toen ik de VVD hoorde spreken over twee zaken waar wij het ook vaker
over hebben, namelijk het weg willen gaan van incidentele politiek en discriminerende
algoritmen. Specifiek werden gender en sociaaleconomische achtergrond genoemd. Dat
waren een tijd geleden, in juni 2022, precies de afwegingen die wij maakten bij het
opstellen van een motie waarin we vroegen om preventief onderzoek te doen om te kijken
binnen welke rijksonderdelen er nog sprake is van discriminerende algoritmen. Daarmee
willen we voorkomen dat we achteraf incidenten moeten gaan organiseren en regelen.
Ik zie meneer Rahimi nadenkend kijken. Hij doet ook voor het eerst mee aan dit debat,
dus alle begrip daarvoor; dat meen ik. Anders wil ik op een ander moment graag weten
wat de afweging is geweest. Als ik kijk naar deze motie en luister naar het betoog,
verbaast mij de tegenstem namelijk.
De heer Rahimi (VVD):
Ik ga graag in op het voorstel om hier later op terug te komen – dank daarvoor overigens
– want twee jaar geleden zat ik nog niet eens in de Kamer. Ik ga daar dus graag op
in.
De voorzitter:
Dank u wel daarvoor. En dan wens ik u succes met dat overleg. Dan zijn we nu bij de
volgende spreker. Dat is mevrouw Koekkoek namens Volt.
Mevrouw Koekkoek (Volt):
Dank, voorzitter. Wij zijn kritisch op het kabinet als het aankomt op digitalisering,
omdat er de afgelopen jaren weinig bestuurlijke visie is geweest op dit onderwerp.
Nou brengt deze Staatssecretaris daar verandering in en dat waardeer ik, maar het
kan en moet nog ambitieuzer. Het algoritmeregister is een goede stap, maar het is
nog niet af. Om te komen tot een werkend systeem is het daarom belangrijk om de komende
maanden samen met de Kamer, burgers, medeoverheden en uitvoeringsorganisaties na te
denken over de doorontwikkeling van het register. Mijn eerste vraag aan de Staatssecretaris
is daarom wie zij betrekt bij het uitwerken van het algoritmeregister. Wat Volt betreft
komen alle algoritmes die door overheden en semioverheden in Nederland worden gebruikt
centraal in één algoritmeregister. Dat lukt alleen door het gebruik van het register
te verplichten voor overheden, met een mogelijkheid om die verplichting te handhaven.
Dat betekent een wettelijke grondslag. De Staatssecretaris heeft in het AI-debat al
aangegeven daarmee aan de slag te gaan, maar wel te willen wachten tot de AI-verordening
er is. Ik vind dat een gemiste kans. Daarom vraag ik de Staatssecretaris niet te wachten
op de uitwerking van de AI-verordening, maar een wettelijke grondslag voor verplichting
van het algoritmeregister zo snel mogelijk te verankeren in de wet. Dat kan met een
kaderbepaling waarbij de daadwerkelijke invulling door middel van AMvB gebeurt. Daarmee
creëren we nu snelheid en later wendbaarheid. Ik vraag de Staatssecretaris ook om
een brief te sturen met de daarin de dilemma's en de afwegingen voor het komen tot
een dergelijke wettelijke verplichting.
Het register bestaat uiteraard niet in een vacuüm. Je hoopt in het register terug
te zien dat alleen algoritmes worden gebruikt die via een ethisch waardekader tot
stand zijn gekomen, dat er geen grondrechten geschonden worden. Je hoopt dat duidelijk
is voor burgers hoe een besluit tot stand is gekomen. Daar moet je dus bij het ontwikkelen
van algoritmes al rekening mee houden. Als je ze inkoopt, dan moet je de toepassing
ervan begrijpen. Ik vraag de Staatssecretaris of zij het idee heeft dat er nu voldoende
wettelijke kaders zijn om de ethische totstandkoming van algoritmes te garanderen
en ook hoe het zit met de uitvoering van de breed aangenomen motie van DENK om bij
besluiten van de overheid aan te geven of sprake is geweest van het gebruik van algoritmes
in die besluitvorming. Wordt dat al toegepast of moeten we ook daarvoor een verplichting
opnemen in de wet?
Voorzitter. Dan nog een aantal punten over data-ethiek. Ik zeg het vaker, in deze
commissies en andere commissies: er wordt door het kabinet veel wetgeving gemaakt
die niet in lijn is met privacywetgeving, niet handelt in de geest van het grondrecht
op de bescherming van privacy. Ik noem een paar voorbeelden: PNR-gegevens, de anti-witwaswet
en de NCTV-wet. Dat doet heel erg veel afbreuk aan de geloofwaardigheid en betrouwbaarheid
van de overheid en dat moet beter. Een oplossing is om als onderdeel van de subsidiariteitstoets
te onderzoeken of er voor verwerkingen van persoonsgegevens technische oplossingen
zijn waarin gegevensverwerking zo veel mogelijk wordt beperkt, waarbij er ook aan
wordt gedacht of er vanuit de samenleving oplossingen bestaan. Ik ben daarom benieuwd
hoe de Staatssecretaris hierover denkt. Wordt er al genoeg gekeken naar technische
oplossingen voor dataminimalisatie en is de IT van de overheid daar dan op toegerust?
Dank u, voorzitter.
De voorzitter:
Dank u wel, mevrouw Koekkoek namens Volt. Het moet me wel van het hart dat de dames
beter in staat zijn om zich aan de minuten te houden dan de heren. Ik dacht: dat is
een aanmoediging voor de twee volgende dames.
Mevrouw Leijten (SP):
Voorzitter, ik zal dat gemiddelde eventjes gaan torpederen.
De voorzitter:
Het woord is aan u, mevrouw Leijten.
Mevrouw Leijten (SP):
Voorzitter. Dit commissiedebat heet Inzet algoritmes en data-ethiek binnen de rijksoverheid,
maar over data-ethiek hebben we het dan eigenlijk heel erg weinig. Het gaat over een
toezichthouder, maar wat gaat die toezichthouder nou precies doen? Dat is onduidelijk.
Het gaat over een algoritmeregister, maar wat daarin moet worden opgenomen, wanneer
en op straffe van wat is onduidelijk. Er zijn rapporten geschreven, er worden onderzoeken
gedaan en er worden werkagenda's opgesteld. De bestuurlijke drukte rond de algoritmes
is enorm, maar de fundamentele vraag wat wij nou vinden dat er wel mag en niet mag
met de inzet van algoritmes wordt onvoldoende besproken. Welke waarborgen willen we
daarbij en welk toezicht? Allemaal vragen waarop nog geen antwoord is.
Toch gaan we ondertussen gewoon door met het inzetten van algoritmes die verregaande
nadelige consequenties kunnen hebben voor mensen. Vinden we bijvoorbeeld dat algoritmes
mogen worden ingezet op het voorspellen of kinderen het criminele pad op gaan? Vindt
de Staatssecretaris dat eigenlijk een goed idee? Welke waarborgen zou ze daar concreet
bij willen hebben? Wie gaat dat in de gaten houden, als bijvoorbeeld door de politie
een dergelijk algoritme wordt ontwikkeld? Wie maakt welke afweging op welk moment?
Welke beperkingen stelt het kabinet eigenlijk aan het inzetten van zelflerende algoritmes?
Als het gaat over de jeugdzorg in Amsterdam, het Top400-algoritme waar ik naar verwijs,
is de SP eigenlijk pislink over de beantwoording. Het gaat gewoon door. Er zijn dus
kinderen, niet crimineel, die in systemen komen als zijnde potentieel crimineel en
die zo worden benaderd op straat.
Sorry, maar ik heb het vaker gezegd: wij willen geen datasurveillance van de Facebooks
van deze wereld en niet in algoritmes van Twitter worden getrokken die giftig zijn,
maar we willen ook geen staat die op deze manier surveilleert en mensen in hokjes
plaatst. Daarom stelde de SP voor om een waardekader te ontwikkelen. Een waardekader,
ik krijg het nauwelijks uit mijn mond. U kent mij als iemand die duidelijke taal wil
spreken, maar een waardekader is wat ons betreft de inzet van het kabinet voor hoe
je dingen afweegt. Is gebruiksgemak, de voorspellende waarde daaruit, het voordeel
of is het privacy? Wat weegt zwaarder? Op het moment dat we zo'n afwegingskader, zo'n
waardekader, hebben, kunnen wij als Tweede Kamer controleren of het goed genoeg is
of dat we het anders willen. Dan kan een toezichthouder daar toezicht op houden. Nu
doen we maar wat. Wat de techniek mogelijk maakt, wordt ingezet, met alle risico's
van dien. De Raad van State, de Wetenschappelijke Raad voor het Regeringsbeleid, Rathenau
Instituut, Amnesty en Tweede Kamer uiten zorgen op zorgen op zorgen, maar deze Staatssecretaris
zegt doodleuk: nee, ik ga algoritmes niet stoppen, ook niet als we niet zeker weten
of ze goed zijn, want dan staat de overheid stil. Ja, maar dan hebben we dus een probleem
met die overheid! Want natuurlijk wil niemand de overheid stilzetten. Maar we willen
ook niet dat mensen in een fuik van profilering lopen. Dan moeten we wachten op Europa
op het punt van algoritmes, want de AI Act regelt van alles, maar die gaat niet de
mensenrechtentoets die wij hebben ontwikkeld, regelen. Hoe gaan we daar dan mee om?
Waarom wachten we er nou precies op?
We hebben trouwens gisteren nog gezien dat er een uitspraak van het gerechtshof is.
Daar is het ook in het mondelinge vragenuurtje over gegaan. Er moet een rechter aan
te pas komen om te zeggen dat je toch niet op afkomst mag selecteren. Wat gaan we
daar eigenlijk mee doen, vraag ik deze Staatssecretaris. Gaan we tegen die uitspraak
in cassatie? Met «we» bedoel ik «de regering». Ik hoop dat toch niet.
Er zijn moties aangenomen over het gebruik van risicoprofielen, van vervuilde data,
van het opschonen daarvan. Er is een heel programma opgesteld. «Motie 21» heet dat
achter de schermen. Er zijn rapporteurs op aangesteld. Daar zou het vandaag ook over
gaan. Maar dat is uitgesteld. Waarom? Het is niet af. Ik kan u dit vertellen: ieder
ministerie gaat er anders mee om en iedereen onderzoekt het op een andere manier en
iedereen heeft een andere definitie. We weten zeker dat de definitie bij politie en
justitie totaal langs het probleem heen scheert. Dus wat zijn we nou precies aan het
doen?
Voorzitter. Ook dat algoritmeregister ... O nee, ik moet op de tijd letten. We krijgen
een toezichthouder en een algoritmeregister, maar we hebben daarbij een uitzondering
op de rechtshandhaving. Waarom is dat nou gedaan?
Tot slot, voorzitter. Er is gekozen voor de Autoriteit Persoonsgegevens. Niks ten
nadele van de Autoriteit Persoonsgegevens, maar we weten dat die al jarenlang eigenlijk
tegen de klippen op werk heeft en geen mensen of geen funding heeft, ondergefinancierd
is. Die krijgt een nieuwe taak met het handhaven van de zwarte lijsten in de zorg.
Gisteravond hebben we daar een wetsvoorstel over gehad. Ze krijgt nu een nieuwe taak
voor dat register en als algoritmetoezichthouder. Hoe krijgen we dat in hemelsnaam
voor elkaar en hoe voorkomen we dat we over drie jaar zeggen: we hebben het allemaal
wel opgetuigd, maar we hebben feitelijk geen toezicht?
De voorzitter:
Dank u wel, mevrouw Leijten namens de SP. Ik kijk even rond. Ik zie geen interrupties.
Dan is het woord aan de laatste spreker van de zijde van de Kamer. Dat is mevrouw
Kathmann van de PvdA.
Mevrouw Kathmann (PvdA):
Dank u, voorzitter. We spreken al de hele tijd over algoritmes. En ik zei het net
al, als we erover spreken, moeten we niet denken dat het een dingetje op zichzelf
is. We kunnen niet met registers, toezichthouders of mensenrechtentoetsen de hele
ethische discussie over algoritmes platslaan. Wij vinden dat altijd heel erg prettig,
want dan kan je dingen in een malletje, handreiking of beleidsnotitie stoppen. Maar
dat gaat gewoon niet. Neem alleen al het stellen van de vraag «wat als het algoritme
het bij het verkeerde eind heeft?» Dat moeten we altijd blijven doen. Als het antwoord
nou is dat het algoritme het bij het verkeerde eind had, wat doet dat dan met besluitvorming
en overheidshandelen? Dat is ongelofelijk belangrijk.
Ik zei het hier al eerder: a fool with a tool is still a fool. Dat betekent niet dat
wij allemaal idioten zijn; dat zeg ik hier niet mee. Maar het betekent wel dat we
de discussie over data-ethiek moeten blijven voeren. In de documenten die op ons af
zijn gekomen, zie je ook echt dat het pas in de kinderschoenen staat. Ik snap daarom
ook zeker de frustraties van de voorgaande spreker, mevrouw Leijten van de SP.
Toch is de Partij van de Arbeid blij met de stappen die door het kabinet zijn gezet
met die algoritmetoezichthouder/het expertisecentrum en ook met het algoritmeregister.
Zeker de moties van Klaver en Van Baarle hebben veel goeds gedaan om die stappen te
kunnen zetten. Maar ik had wel echt een groot aantal vragen. De meeste zijn gesteld,
dus die ga ik niet herhalen. Ik weet dat het stevige vragen waren, maar ik sluit me
toch aan bij de vragen van de heer Van Baarle over de algoritmetoezichthouder. Waar
zijn de tanden nou gebleven? Het duurt namelijk echt allemaal al erg lang. Wij snappen
ook dat de Staatssecretaris dat vindt. Maar als we dan iets optuigen, laten we dan
haast maken en gelijk dingen optuigen met tanden.
Als het gaat over de normontwikkeling bij de toezichthouder, wil ik me graag aansluiten
bij de vragen van het CDA. Als het gaat om algoritmen en besluitvorming – dat is ongelofelijk
belangrijk; ik zei het net al – wil ik me heel graag aansluiten bij de vragen die
daarover zijn gesteld door Volt.
Het aantal algoritmes dat is aangemeld door de overheid bij het algoritmeregister
is natuurlijk heel bedroevend. Daar heeft GroenLinks scherpe vragen over gesteld.
Daar wil ik me heel graag bij aansluiten. Hetzelfde geldt voor de vragen van GroenLinks
over de mensenrechtentoets.
Ik kon al mijn vragen dus wegstrepen, maar ik wil de Staatssecretaris wel nog om één
reflectie vragen. Dit gaat over Joris Krijger, promovendus aan de Erasmus Universiteit.
Laatst was hier ook stuk over in Trouw. Hij zegt dat zo'n algoritmeregister an sich
helemaal niet voldoende is. We hebben eigenlijk expertteams nodig die zich helemaal
mogen ingraven in zo'n algoritme, met geheimhouding of wat dan ook, want soms geeft
de overheid aan dat het anders niet kan. Zo kan het algoritme helemaal worden doorgekliefd
en kan er worden gezien hoe het tot stand is gekomen, hoe het is ontwikkeld en hoe
het is toegepast. Dat is dus meer dan alleen een vinkje zetten als het in het register
staat.
Tot slot zou ik graag een reflectie willen van de Staatssecretaris op die expertteams.
Moeten we die niet breder inzetten? Er is namelijk een commissie bij het UWV. Die
heeft wel een hele andere taakomschrijving, maar misschien zou je dit daarmee samen
kunnen voegen tot een soort commissie met tanden; laat ik die zo noemen.
Tot zover, voorzitter.
De voorzitter:
Dank u wel, mevrouw Kathmann. U bent keurig binnen de vier minuten gebleven. Dank
daarvoor. Daarmee zijn we aan het einde gekomen van deze termijn. Ik kijk heel even
naar de Staatssecretaris. Ik schors tot 15.30 uur, maar dan gaan we ook stipt om 15.30
uur beginnen. We hebben dus niet nog vijf minuutjes uitlooptijd. We gaan om 15.30
dus verder. Omdat we nog een tweede termijn willen hebben, kijk ik even naar de Staatssecretaris
en via haar naar de ambtenaren erachter met de vraag of één algemene inleidende tekst
dan wellicht volstaat in plaats van één per kopje.
De vergadering wordt van 14.54 uur tot 15.30 uur geschorst.
De voorzitter:
Aan de orde is het commissiedebat Inzet algoritmes en data-ethiek binnen de rijksoverheid.
We hebben net de eerste termijn van de Kamer gehad en we zijn aanbeland bij de beantwoording
van de gestelde vragen door de Staatssecretaris. Ik geef de Staatssecretaris het woord.
Nog even ter herinnering voor de leden: drie interrupties in tweeën.
Staatssecretaris Van Huffelen:
Dank u wel, voorzitter. Zoals u suggereerde, heb ik een korte introductie gemaakt.
Daarna zou ik de gestelde vragen willen beantwoorden in een viertal blokjes, te beginnen
met het blokje over algoritmes, dan over toezicht, dan over mensenrechten en daarna
nog een blokje met andere onderwerpen die niet in een van deze passen. Ik ga proberen
dat zo kort mogelijk te doen.
De kern van dit debat is de aandacht die we moeten hebben voor de inzet van algoritmes
en data-ethiek. De impact daarvan, weten we allemaal, is ontzettend gegroeid in de
afgelopen jaren in onze hele samenleving. Dat geldt lang niet alleen voor de overheid.
Op allerlei plekken in onze samenleving worden algoritmes gebruikt. We weten dat die
ons fantastische dingen kunnen brengen, maar we weten ook dat er gevaren zitten aan
het gebruik van algoritmes, met name als het gaat over mensenrechten en de mate waarin
we nog controle hebben over ons eigen leven.
We hebben op 25 januari ook over dit onderwerp gesproken en dat doen we vandaag opnieuw.
Dat is goed, omdat we vanuit het werkprogramma dat dit kabinet heeft gemaakt vooral
bezig zijn met het nadenken over de vraag: hoe kunnen we algoritmes in een positieve
zin brengen en stimuleren? Hoe kunnen we de maatschappelijke en economische kansen
ervan zo goed mogelijk benutten? Maar vooral ook: hoe kunnen we zorgen dat er voldoende
aandacht blijft voor mensenrechten, voor ethiek, niet alleen maar voor de algoritmes
die er vandaag de dag al zijn, maar zeker ook voor algoritmes en nieuwe technologieën
die zich in de komende tijd gaan ontwikkelen?
Vanuit de werkagenda die is opgesteld, doen we dat vanuit het kabinet op verschillende
manieren. We doen dat door in Europees verband heel actief in te zetten op zorgen
dat er goede verordeningen komen voor algoritmes. Die zorgen namelijk niet alleen
dat we in Nederland goede afspraken maken, maar ook dat algoritmes die elders worden
geproduceerd en in Nederland worden gebruikt, of dat nou door de overheid is of door
private personen, voldoen aan de vereisten die wij van belang achten. Daarbij zijn
fundamentele rechten, mensenrechten, privacy, transparantie – weet je nog wat er precies
gebeurt met jouw data? – een belangrijke factor. Dat doen we ook door binnen de Nederlandse
overheid een stap verder te zetten. Dat hebben we dan ook gedaan – we komen daar zo
meteen verder over te spreken – door het opzetten van een algoritmeregister, door
het inzetten van een toezichthouder en niet in de laatste plaats door afspraken te
maken, vooruitlopend op de implementatie van de algoritmeverordening vanuit de EU
op een manier van werken binnen de overheid die voldoet aan wat het kabinet en zeker
ook uw Kamer, zoals ze in eerdere debatten heeft aangegeven, van groot belang vinden.
Dat is het eerste wat ik wilde zeggen. Ik ga nu over tot het beantwoorden van de vragen
in de verschillende blokjes.
Ik begin met het thema algoritmes. Dan kom ik direct bij de vragen die door de heer
Van Baarle daarover gesteld zijn. Hij vroeg het volgende aan mij. We zijn bezig op
allerlei manieren om inzicht te krijgen in algoritmes die de overheid op dit moment
in gebruik heeft. Dat doen we op verschillende manieren. Er is het register dat we
nu aan het vullen zijn, maar er zijn ook de onderzoeken die we hebben gedaan naar
aanleiding van de problemen die we eerder hebben gezien, bijvoorbeeld rondom de toeslagen,
om per ministerie in beeld te krijgen welke algoritmes worden gebruikt en of daarbij
sprake is van onoorbare praktijken, van discriminatie of van het foute gebruik van
gegevens. U vroeg in het kader van het opzetten daarvan of we precies weten hoeveel
algoritmes er zijn met automatische besluitvorming. Dat klinkt als een heel logische
vraag, maar is heel lastig te beantwoorden. Algoritmes met automatische besluitvorming
zijn bijvoorbeeld de algoritmes die we in stoplichten gebruiken, maar ook de algoritmes
die gebruikt worden bij het toekennen van verkeersboetes. Als je langs een flitser
rijdt en te hard of door rood licht rijdt, krijg je ook zoiets. Het punt is dat we
dat niet precies weten. Wij selecteren niet zozeer op de vraag of er sprake is van
automatische besluitvorming, maar kijken vooral of algoritmes van de categorie hoog
risico zijn. Hoogrisicoalgoritmes zijn algoritmes waarbij sprake is van persoonsgegevens
of van impact voor mensen in die zin dat er iets met hun data en gegevens gebeurt
of dat besluitvorming een grote impact heeft op hun leven. De definitie daarvoor die
we ook in Europees verband gebruiken, is eigenlijk het onderscheid dat we maken. Daarbij
kijken we dus niet zozeer alleen naar de vraag hoe het precies werkt, maar geven we
ook aan of er sprake is van een hoog risico of niet. Op dit moment hebben we dat dus
niet. We zijn eigenlijk ook vooral van plan om de registratie van algoritmes te hanteren
aan de hand van het criterium wel of geen hoog risico.
De voorzitter:
Voor u vervolgt, zijn er twee interrupties. Eerst is de heer Van Baarle en daarna
de heer Rahimi. Meneer Van Baarle.
De heer Van Baarle (DENK):
Dank voor de beantwoording. Dat roept voor mij wel de vraag op wat dan precies de
definitie is. Wat wordt er exact gekwalificeerd als hoog risico? Weten we dan wel
het antwoord op de vraag hoeveel hoogrisicoalgoritmen we als overheid hebben?
Staatssecretaris Van Huffelen:
We hebben daar natuurlijk een eerste inventarisatie van gemaakt. De definitie van
hoog risico die op dit moment – in een volgende fase komen we in de triloogfase –
gebruikt wordt in die Europese verordening, is dat het erom gaat dat deze algoritmes
worden toegepast in situaties waarin er sprake is van systemen waarin persoonsgegevens
worden omvat en waarin die algoritmes risico's zouden kunnen bieden voor fundamentele
rechten, gezondheid of veiligheid. In de verordening zijn daarvoor ook lijsten en
systemen gemaakt. Die algoritmes zouden we ook honderd procent in beeld moeten hebben
als we het in eerste instantie over de overheid hebben. Dat zijn precies de algoritmes
die in dat register een plek moeten hebben en waarvan dan ook, conform de afspraken
die wij daarover eerder hebben gemaakt, niet alleen inzichtelijk moet zijn waarvoor
dat algoritme wordt gebruikt, maar ook hoe het in elkaar zit, of er sprake is geweest
van een voorafgaande mensenrechtencheck, enzovoorts, enzovoorts, enzovoorts. Dat is
dus wat wij onder die definitie verstaan.
De heer Van Baarle (DENK):
Excuses, maar dat was geen antwoord op de vraag. De vraag was wat precies de definitie
van hoog risico is. Ik hoor dan dat het gaat om persoonsgegevens. Het is arbitrair
wat daar wel en niet onder valt. Het is arbitrair wat onder risico's voor fundamentele
rechten valt. Wanneer spreek je van een risico voor fundamentele rechten? Is die gelijkluidende
definitie overal op exact dezelfde manier en uitlegbaar toegepast?
Twee. Mijn vraag is ook: als dat de definitie is die we hanteren, weet de Staatssecretaris
dan wel het antwoord op de vraag hoeveel van die algoritmen we bij de overheid hebben?
Als we dat niet weten, hebben we een probleem, volgens mij.
Staatssecretaris Van Huffelen:
De helderheid over die definities is, nogmaals, dat we die hebben beschreven in die
AI-verordening. Die zal in de komende tijd ook verder worden uitgewerkt. We hebben
daarin namelijk opgeschreven dat het gaat over algoritmes waarbij de besluitvorming
effect heeft op mensenrechten. Dat gaat noodzakelijkerwijs dus niet over algoritmes
die een lift of een stoplicht aansturen. Het gaat wel over de algoritmes die bepalen
of je wel of niet in aanmerking komt voor een uitkering, of die werken op het gebied
van bijvoorbeeld risicoselectie en dergelijke. Overigens gaat het erom – dat is iets
wat we vandaag ook wel aan de orde zullen stellen, denk ik – dat er altijd eerst een
afweging gemaakt moet worden van of er überhaupt wel of niet een algoritme wordt ingezet
bij de uitvoering van beleid. Als we die hoogrisicoalgoritmes gedefinieerd hebben,
moeten we er natuurlijk voor zorgen dat die allemaal in het register komen. Weet ik
nu al voor honderd procent hoeveel dat er zijn? Nee, dat weten we nog niet voor honderd
procent. Bij de activiteiten die we doen in het kader van de motie op stuk nr. 21
– daarover hebben we u een brief gestuurd waarover we later deze maand een debat zullen
voeren – is het natuurlijk de bedoeling dat we ook heel precies weten of we alle algoritmes
ook daadwerkelijk in beeld hebben. Omdat ik het zo belangrijk vind dat we dit voor
honderd procent in beeld krijgen, gaat het er, wat mij betreft, niet alleen om dat
we aan organisaties vragen om dat te doen, maar ook dat we dat uiteindelijk gaan verplichten,
zodat we daarover niet alleen in Europa afspraken maken, maar we dat ook binnen de
context van de Nederlandse overheid doen. Van de hoogrisicoalgoritmes moet namelijk
honderd procent in beeld zijn. Daarvan moet transparant zijn hoe ze functioneren.
Die moeten voldoen aan vereisten die bijvoorbeeld gaan over dat je niet alleen maar
aan het begin, bij de introductie daarvan, een keurmerk of een toets hebt, maar dat
ook tijdens het gebruik daarvan in de gaten wordt gehouden of zo'n algoritme inderdaad
nog doet wat het moet doen en vooral of het niet gebiased raakt of op de een of andere
manier tot verkeerde uitkomsten leidt.
De voorzitter:
Dank u wel. En voor de liefhebber: de motie op stuk nr. 21 is de motie-Marijnissen/Klaver.
U wilt nog een tweede interruptie, meneer Van Baarle?
De heer Van Baarle (DENK):
Ja, want we hebben drie keer een interruptie in tweeën, toch?
De voorzitter:
Ja. Dit wordt dus uw tweede interruptie.
De heer Van Baarle (DENK):
Ik ga die hier wel aan besteden, voorzitter, want ik vind de beantwoording in alle
oprechtheid niet bevredigend. Ik vraag tot drie keer toe naar een definitie van een
hoogrisicoalgoritme, omdat die definitie is gehanteerd bij het controleren of een
algoritme discrimineert. De Staatssecretaris komt niet verder dan algemeenheden. Als
die de definitie vormen bij het controleren of een algoritme discrimineert, moeten
we toch op z'n minst weten hoeveel we er daarvan hebben? Het antwoord daarop komt
ook niet. Mijn impressie is dus op z'n minst dat de overheid in die hele doorlichting,
bij de uitvoering van de motie-Marijnissen/Klaver om te kijken of algoritmen discrimineren,
niet weet welke definitie er gehanteerd wordt. Als we na afronding van het traject
niet eens weten hoeveel hoogrisicoalgoritmen we hebben, dan hebben we toch niet goed
naar onze algoritmen gekeken? Dus kan de Staatssecretaris nogmaals antwoord geven
op die twee vragen? Anders blijf ik erbij dat ik mij als vertegenwoordiger van de
fractie van DENK ernstig zorgen maak over de vraag of we dit wel goed hebben aangepakt.
Staatssecretaris Van Huffelen:
Misschien is het goed om toch even een paar dingen uit elkaar te halen. Bij het uitvoeren
van de motie op stuk nr. 21 – nogmaals, we komen daar in een volgend debat verder
over te spreken – hebben we aangegeven dat het er vooral om gaat dat we willen onderzoeken
of er door de overheid andere algoritmes worden gebruikt waarin sprake is van discriminatie
of verkeerd gebruik van persoonsgegevens. Dat is geanalyseerd. Alle departementen
hebben hun werk gedaan. Ze zijn daar voor het grootste deel mee klaar, maar moeten
de laatste punten nog afronden. Op basis daarvan weet u inderdaad hoeveel van deze
algoritmes zij hebben onderzocht. Dat beschrijven ze ook in hun aanpak. Er is ook
aangegeven of er sprake is van algoritmes die niet voldoen aan de vereisten of aan
de definitie zoals we die hebben gehanteerd. Met u heb ik gezegd dat ik het belangrijk
vind dat we dat ook nog een keer onafhankelijk laten toetsen. Daarom heb ik in de
brief die ik naar u heb gestuurd ook geschreven dat ik ermee aan het werk ben om dat
te laten doen.
De definitie die de AI Act, dus de AI-verordening, gebruikt in Europa, kan ik er nog
even voor u bij pakken. Ik wil die in de tweede termijn graag even aan u voordragen.
Die geeft inderdaad aan dat het niet alleen over discriminatie gaat, maar definieert
ook in bredere zin de verschillende niveaus van risico's van algoritmes. Er zijn algoritmes
die je überhaupt niet mag gebruiken, hoogrisicoalgoritmes, laagrisicoalgoritmes enzovoort,
enzovoort. Vervolgens wordt er aangegeven welke van deze algoritmes we in kaart moeten
hebben, van tevoren een keurmerk moeten hebben en aan allerlei vereisten moeten voldoen.
Dat is eigenlijk hetgeen waarmee we werken. Voor een deel overlapt dat uiteraard,
want de AI Act gaat ook over racisme, discriminatie, het niet verkeerd gebruiken van
persoonsgegevens. Maar ik ben het zeer met u eens dat we in de Nederlandse implementatie
van deze verordening – we doen dat bij de overheid dus in het implementatiekader dat
we dit jaar opstellen – in ieder geval heel helder moeten stellen welke algoritmes
wij definiëren als hoogrisicoalgoritmes, hoe we voor honderd procent dat register
kunnen vullen en hoe de toezichthouder vervolgens ook honderd procent kans heeft om
daarmee zijn werk te doen, namelijk het toezicht houden op deze algoritmes.
De heer Van Baarle (DENK):
Ik blijf deze vraag herhalen omdat de Staatssecretaris in control, coördinerend, is
op dit dossier. Het is een majeure operatie om te kijken of we binnen de hele overheid
algoritmen hebben die wellicht discrimineren. We hebben die hele operatie met elkaar
op touw gezet om alle algoritmen te controleren op een hoog risico en op de vraag
of ze wellicht discrimineren. Ik vind het onbevredigend dat aan het einde van het
traject een coördinerend bewindspersoon in dit debat geen antwoord kan geven op fundamentele
vragen, namelijk hoe die definitie exact luidt, of die overal op een gelijkluidende
manier toegepast is en hoeveel hoogrisicoalgoritmen we dan hebben. Als die antwoorden
aan het einde van dit traject nog steeds niet komen, ben ik er niet zeker van of we
wellicht discriminerende algoritmen op ministeries hebben gemist. Als we niet weten
hoeveel het er überhaupt zijn, ben ik er niet zeker van of we met elkaar wellicht
nog van die monsters onder de motorkap hebben die mensen duperen. Dat is de kern van
de vraag. Ik ben dus op zoek naar meer control. Ik zou aan de Staatssecretaris willen
vragen om eraan tegemoet te komen om die zorg weg te nemen.
De voorzitter:
Dank u wel. Ik kijk even naar de Staatssecretaris met de vraag of zij na dit betoog
nog iets kan toevoegen.
Staatssecretaris Van Huffelen:
Die zorg wil ik natuurlijk graag wegnemen, want volgens mij hebben we precies hetzelfde
voor ogen: we willen dat er bij de overheid geen algoritmes worden gebruikt die effecten
hebben die we niet willen, zeker op het gebied van discriminatie. Dat is ook precies
wat de motie op stuk nr. 21 doet. Nogmaals, we gaan nog uitgebreid met elkaar spreken
over de resultaten van die exercitie, van het werk dat we gedaan hebben. Ik vind het
wel goed om dit uit elkaar te trekken, want het gaat daar over racisme, discriminatie
en een aantal andere effecten. Dat is iets anders dan wat we in de AI-verordening
hebben opgenomen. De definities die we daar gebruiken, zijn breder en gaan ook over
andere effecten die onwenselijk zijn bij het gebruik van algoritmes. Ik denk dus dat
het goed is dat we beide naast elkaar zetten, maar dat we in ieder geval, ook ten
aanzien van de motie op stuk nr. 21, op basis van de check die we hebben gedaan, inzichtelijk
hebben welke algoritmes de overheid gebruikt en of zij wel of niet voldoen aan de
vereisten. We moeten er zeker van zijn dat die lijst 100% dicht is. Nogmaals, alle
departementen hebben daar zeer serieus aan gewerkt. Mijn voorstel is, ook naar aanleiding
van het debat dat we daar eerder over hadden, om dat nog een keer te laten toetsen,
zodat we zeker weten dat er niet iets vergeten is. Het tweede punt is dat we ook verder
moeten. Nogmaals, dat doen we op basis van wat we zelf bij de overheid gaan afspreken,
in lijn met wat we ook in Europa afspreken. Het oogmerk blijft dus precies hetzelfde,
namelijk zorgen dat we echt weten welke algoritmes gebruikt worden en in zicht brengen
welke daarvan potentieel niet voldoen, want dan moeten we zorgen dat ze daar echt
mee aan het werk kunnen.
De voorzitter:
U heeft een interruptie van de heer Rahimi van de VVD en daarna van mevrouw Leijten.
De heer Rahimi (VVD):
In de eerste termijn had ik het al over die snelheidsboetes. Het enige wat ik de Staatssecretaris
wil vragen, is of zij het daarmee eens is. «Algoritmes» is gewoon een wiskundig begrip.
De simpele beslisregels – wel of niet een boete bij 110 kilometer – zijn simpel; die
snapt iedereen. Maar als je vrouw zwanger is en als je racet naar het ziekenhuis,
krijg je dan ook een boete? Soms wordt dat heel moeilijk. Ik wil dus wel benadrukken
dat het soms heel makkelijk lijkt om over die beslisregels een mening te hebben. Ik
wil de Staatssecretaris vragen of zij mee wil nemen dat die simpele beslisregels ook
goed getoetst worden. Soms kunnen ze immers complex zijn. Is de Staatssecretaris het
daarmee eens?
Staatssecretaris Van Huffelen:
Ja, daar ben ik het zeer mee eens. Het is ook om die reden dat we de Algemene wet
bestuursrecht aan het uitbreiden zijn, want wij vinden het heel belangrijk dat iedere
beslissing die de overheid neemt of iedere soort beslissing die de overheid neemt,
heel goed inzichtelijk is. Sowieso is er op dit moment al een motivatieplicht. Als
je die boete krijgt, moet er dus worden uitgelegd waarom je die boete hebt gekregen,
hoe je daartegen in bezwaar kan gaan, enzovoort, enzovoort. Maar ik vind het belangrijk
dat gewoon op de website en/of op andere manieren voor iedereen die bijvoorbeeld iets
wil aanvragen, zoals een subsidie, inzichtelijk is hoe en met welke gegevens beoordeeld
zal worden of je wel of niet in aanmerking komt, bijvoorbeeld voor zo'n subsidie,
en waar die gegevens vandaan komen. Dat betekent gewoon helderheid en transparantie.
Natuurlijk moet ook helder worden gemaakt of er dan sprake is van algoritmische onderdelen
in die besluitvorming, waarbij we ook eerder in debatten over dit onderwerp hebben
gezegd dat beslissingen die een direct impactvol effect op je kunnen hebben, bijvoorbeeld
de beslissing of je wel of geen subsidie krijgt of dat je belasting wordt aangepast,
nooit alleen op basis van een algoritmisch besluit kunnen worden genomen. Er is altijd
een menselijke tussenkomst nodig voordat dat besluit daadwerkelijk kan worden genomen.
Mevrouw Leijten (SP):
Dat laatste is nog helemaal niet geregeld. De gemeenten vragen zelfs om de omgang
met algoritmes op te nemen in de algemene beginselen van behoorlijk bestuur. Dat is
nogal een principiële vraag. Het is dus gewoon niet geregeld. Maar de Staatssecretaris
zei zojuist dat altijd de afweging wordt gemaakt of een algoritme wel of niet wordt
ingezet. Mogen wij die afwegingen weten? Welke lijn wordt er dan gehanteerd en welk
afwegingskader zit daarin? Want van het waardekader waarnaar ik heb gevraagd, zegt
van de Staatssecretaris: dat ga ik lekker niet maken. Die motie voert zij niet uit.
Staatssecretaris Van Huffelen:
Gelukkig doen we dat wel. Sterker nog, het waardekader en het maken daarvan zijn onderdelen
van ons werkprogramma en zijn daarin opgenomen. Ik noem bijvoorbeeld de mensenrechtentoets
die we hebben ingevuld. Die begint eigenlijk met de vraag of er überhaupt wel een
algoritme nodig is om dit deel van het beleid of deze regel uit te voeren. En eerlijk
gezegd vind ik die zelf ongelofelijk belangrijk, want de vraag is dan inderdaad of
dit de beste en meest gewenste tool is om in te zetten, nog voordat je vervolgens
allerlei vraagstukken behandelt over de verschillende stappen die je dan zet en of
er daarin dan ook weer sprake is van het in acht nemen van alle mensenrechten die
van belang zijn. Ik denk dus dat het heel goed is dat we daar scherp op zijn en dat
we dat als regel nummer één opschrijven in het implementatiekader dat we maken voor
de overheid. Maar dat is net zo goed van belang voor verdere vragen. Als eerste stap
in het waardekader is het wat mij betreft een belangrijke factor dat je eerst de vraag
stelt of een algoritme nodig is.
Mevrouw Leijten (SP):
Of je nou een brief leest van de Staatssecretaris of haar hoort antwoorden: het is
altijd een brij aan verwijzingen naar agenda's, werkprogramma's en noem allemaal maar
op. Het is ook altijd managementspeak: we gaan doen, we gaan doen, we gaan doen. Maar
wat gebeurt er nú? Er zijn nú algoritmen die bepalen of kinderen wel of niet crimineel
worden, en zo worden zij ook behandeld op straat. Dat is geen besluit of je een subsidie
krijgt of niet, of je toeslag wordt stopgezet of niet, of dat je een boete krijgt
of niet. Maar dat bepaalt wel heel veel over je leefomgeving. Je zal het stempel maar
krijgen. En we gaan daar gewoon mee door. Welke afweging is daar nou precies gemaakt?
Welke afweging wordt er nou precies gemaakt bij justitie als ze dat allemaal doen
onder de Wet politiegegevens? Die valt bijvoorbeeld níét onder het toezicht van de
Autoriteit Persoonsgegevens. Daar geldt de AVG ook níét. Als je het daaronder wegschrijft,
mag je dus van alles doen. En hoe gaan we daar nou achter komen?
Over de uitvoering van de motie-Marijnissen/Klaver gaan we nog een uitgebreid debat
over voeren, want er komt ook een duidelijke rapportage. Bij die operatie valt het
ons op dat ieder ministerie een andere definitie hanteert. En dan komen we er niet.
Wat voor betekenisvolle stap gaat de Staatssecretaris nou zetten, anders dan op papier,
met werkprogramma's en met hele goede voornemens, waardoor er echt iets gebeurt?
Staatssecretaris Van Huffelen:
Het begint er in ieder geval mee dat we het eens moeten zijn over wat we willen bereiken.
Volgens mij zijn we dat. Dan misschien toch nog even over de vragen die u heeft over
de kinderen die worden gevolgd. Dat algoritme wérd inderdaad gebruikt door de gemeente
Amsterdam. De burgemeester van Amsterdam heeft aangegeven dat ze vindt dat dat niet
meer moet worden ingezet. Het is in juli 2016 ingezet, maar daarna is het niet meer
gebruikt. Ik denk dat dat heel terecht is, want dat is precies een algoritme waarvan
je niet wilt dat het ook daadwerkelijk wordt ingezet.
Ik denk dat het helder is dat grip krijgen op algoritmes geen makkelijk, eenduidig
onderwerp is, want er zijn ongelofelijk veel soorten algoritmes. We hebben het dan
niet alleen maar over hoge en lage risico's, over stoplichten versus besluitvorming
of over de vraag of je wel of niet in aanmerking komt voor een bepaalde subsidie.
We hebben het al helemaal niet over de algoritmes die socialmediaplatforms gebruiken
om bepaalde soorten informatie wel of niet naar u toe te sturen. We proberen er niet
een beetje, maar met heel veel kracht voor te zorgen dat we helderheid krijgen over
wat er nou precies wordt gebruikt, want ik ben het met u eens dat het, zeker ook voor
de overheid, heel belangrijk is dat we duidelijk hebben welke soorten algoritmes we
gebruiken. Dat geldt overigens ook voor de private sector. Dat is ook de reden waarom
die algoritmeverordening in Europa niet alleen gaat over de overheid, maar ook over
de private sector. Zo is er transparantie. Zo weten we wat ze doen. De heer Rahimi
heeft daar ook iets over gezegd. Zo kunnen we ook aangeven wat we wel en niet goed
vinden. Het is niet altijd eenvoudig om dat helemaal van tevoren dicht te regelen,
omdat we nog niet al die algoritmes in al hun aspecten goed kennen. Dat is ook precies
waar het over gaat: helderheid krijgen over wat er gebeurt, om vervolgens verder te
gaan met de stappen die we willen zetten. Daarbij staat voorop dat er een paar hele
heldere kaders zijn, namelijk onze Grondwet, mensenrechten en de fundamentele rechten
van burgers die we in eerste en in laatste instantie moeten beschermen.
De voorzitter:
Dank u wel, vervolgt u uw betoog.
Staatssecretaris Van Huffelen:
Graag.
De voorzitter:
En ik heb trouwens een oproep aan zowel de leden als aan u. Ik weet dat we allemaal
ons best doen, maar we hebben maar drie uur voor dit overleg. Ik hoop toch om uiterlijk
16.40 uur met de tweede termijn te starten. Ik hoop daar van alle kanten uw hulp bij
te krijgen, door de vragen kort te formuleren en kort te zijn in de beantwoording.
Vervolgt u uw betoog.
Staatssecretaris Van Huffelen:
Ja, ik ga door met de vragen. Ik kom bij de vraag van de heer Van Baarle of de ADR
de juiste instantie is als we een extra toets willen doen op de uitvoering van de
motie op stuk nr. 21. Wij hebben voor de ADR gekozen omdat die deze analyse al bij
één ministerie heeft gedaan, namelijk bij het Ministerie van Sociale Zaken. We hebben
gezien dat die werkt en dat die goed is. De ADR voldoet aan alle aspecten. Ze hebben
genoeg kennis en ervaring en kunnen dit onderzoek goed doen. Maar ik informeer u nog
over hoe we de uitvoering van dit onderzoek willen doen. Ik heb dat ook toegezegd.
Ik informeer u zodanig dat u kunt meekijken, want ik hecht er vooral ook aan dat,
als we dit onderzoek extern laten doen, het dan op een manier gebeurt waarvan u ook
zelf zegt dat die helpt om de inzichten te krijgen die het moet opleveren.
Mevrouw Leijten (SP):
Ik zou de Staatssecretaris graag willen vragen of zij de Kamer zou willen respecteren
bij het doen van dit onafhankelijke onderzoek en met ons zou willen overleggen wie
dat het beste kan doen. Wij hebben rapporteurs op dit onderwerp. Het gaat om de uitvoering
van Kamermoties. Wij hebben serieuze zorgen over het feit dat de ADR het doet, omdat
de ADR ook een rol heeft gespeeld in het toetsen van algoritmes en de uitvoering van
ICT binnen de overheid. Ik zou de Staatssecretaris eigenlijk willen vragen of zij,
voordat zij zegt wie ze zelf aanwijst als zogenaamde onafhankelijke uitvoerder van
de toets, met de Kamer wil bespreken of we daar gezamenlijk een besluit over kunnen
nemen. Anders blijven we tegenover elkaar staan, en dat is echt niet goed op dit onderwerp.
Aanvankelijk wilde de Staatssecretaris niet onafhankelijk toetsen. Ze zei later toe
dat wel te gaan doen. Het is de ADR geworden. Daar hebben we vanwege die dubbelrol
echt serieuze, inhoudelijke problemen mee. Is de Staatssecretaris bereid om met de
Kamer te overleggen wie dat het beste kan doen?
Staatssecretaris Van Huffelen:
Ik zie die dubbelrol van de ADR eerlijk gezegd niet zo. Zij zijn de accountant van
het Rijk en daarmee toetsen ze zijn werk op meerdere vlakken. Overigens spelen bij
de toetsing van algoritmes ook anderen nog een rol. Maar het gaat nu over dit onderzoek.
We kunnen het ook omdraaien. U kunt ook aangeven dat u denkt dat een andere organisatie
dat zou moeten doen. Ik kan dat dan samen met mijn collega's meewegen in dit voorstel.
Mevrouw Leijten (SP):
Als daar ruimte voor is, zou ik die graag willen gebruiken, want de ADR heeft wel
degelijk ook een adviesfunctie bij het op een goede manier aanleggen van systemen.
De ADR kijkt daar dus wel degelijk bij mee. Later moet die ze weer toetsen. Om iedere
mogelijke schijn van van alles te voorkomen, juist omdat het hier gaat over zo'n belangrijk
punt, en juist omdat we geen incidentenpolitiek willen, om maar even met de VVD te
spreken, kunnen we het volgens mij beter vooraf goed afspreken, zodat er achteraf
geen andere inzichten zijn. Ik zou het echt erg op prijs stellen als de Staatssecretaris
dat samen met de vaste commissie voor Digitale Zaken zou willen oppakken.
Staatssecretaris Van Huffelen:
Om het heel praktisch te houden – volgens mij moeten we niet te lang wachten met deze
toets – zou ik zeggen: laat u mij als commissie weten welke partij of welke soort
partij u zou willen. Dan kan ik die in de overweging meenemen.
Mevrouw Leijten (SP):
Ik zeg het niet omdat ik mezelf werk wil geven, maar dan zou ik willen voorstellen
dat de rapporteurs op dit onderwerp, mevrouw Dekker-Abdulaziz en ik, daarvoor met
een voorstel komen. Wij kijken namelijk ook mee met de voortgangsrapportages. Wellicht
kan meneer Van Baarle ook meehelpen. Ik zou aan de Staatssecretaris willen vragen
om tot die tijd nog geen stappen te zetten; dan zullen wij proberen om zo snel mogelijk
ons werk te doen.
Staatssecretaris Van Huffelen:
Heel graag. Perfect.
De voorzitter:
Dan noteren we dat. Vervolgt u uw betoog.
Staatssecretaris Van Huffelen:
Ik ga door naar de vraag van de heer Van Baarle over de antidiscriminatierichtlijnen
van de algoritmeverordening. Worden die ook daadwerkelijk heel concreet? Ja, die zijn
heel concreet. Ze zijn opgenomen in het akkoord zoals het er op dit moment is. U weet
dat het nog niet definitief is. Er zijn nog trilogen. Er staat in dat data die tot
vooroordelen en discriminatie leiden, geïdentificeerd moeten worden en voorkomen moeten
worden enzovoort, enzovoort. Dat is dus ook een heel belangrijke kwestie aan onze
kant. Bovendien staat erin dat die mensenrechtentoetsen voorafgaand aan de inzet van
algoritmes moeten worden gedaan. In mijn perspectief en dat van het kabinet is dit
goed geregeld. Maar goed, we moeten natuurlijk wel zien of dat in de definitieve versie
blijft bestaan. Ik hoop dat dat zo is en ik heb overigens ook geen reden om aan te
nemen dat dat niet zo is.
De heer Van Baarle vroeg ook hoe we voorsorteren op die algoritmeregelgeving vanuit
Europa. We doen dat vooral door vast aan het werk te gaan met de overheid en met overheidsorganisaties.
We doen dat op verschillende manieren. We hebben natuurlijk al een toezichthouder
en we hebben dat register opgezet. Ik kom zo meteen op de detailvragen daarover. Wij
vinden het heel erg belangrijk dat wij als overheid en als overheidsorganisaties al
gaan voldoen aan de verplichtingen zoals die nu zijn opgenomen, zodat we daar alvast
mee kunnen oefenen, zodat we ze kunnen inrichten, maar vooral ook zodat we die dingen
die wellicht nog langer gaan duren wat betreft de verordening, al eerder bij de Nederlandse
overheid kunnen inzetten. Natuurlijk gaan we daarbij ook samenwerken met de toezichthouders
die op dit gebied actief zullen zijn.
De voorzitter:
De heer Van Baarle, DENK.
De heer Van Baarle (DENK):
Dit is mijn een-na-laatste vraag, toch?
De voorzitter:
U heeft nog één interruptie, inderdaad.
De heer Van Baarle (DENK):
Nog één interruptie?
De voorzitter:
En een vervolgvraag.
De heer Van Baarle (DENK):
Ja, en een vervolgvraag. Over de criteria en de AI Act. De Kamer heeft een motie aangenomen
waarin de Staatssecretaris en de regering de opdracht kregen om concrete antidiscriminatiebepalingen
uit te onderhandelen in Europa. Mijn vraag was: wat zijn de concrete antidiscriminatiebepalingen?
Ik heb het antwoord van de Staatssecretaris opgeschreven: geen verboden onderscheid,
risico's identificeren en een mensenrechtentoets. Wat is verboden onderscheid? Wat
is identificeren? Hoe moet je dat doen? Waar bestaat die mensenrechtentoets uit? Hoe
omvattend is die? We wachten allemaal op die AI Act, want die moet alles oplossen,
maar deze beantwoording, deze zin, geeft mij nog niet de zekerheid dat die concreet
genoeg wordt om aan de slag te kunnen.
Staatssecretaris Van Huffelen:
Dat het concreet moet worden is natuurlijk helder en wat niet mag, staat in de wet.
In onze eigen wetgeving staat dat discriminatie niet mag. Dat geldt ook in die Europese
verordening. U zegt dat we niet alleen maar moeten wachten tot de regelgeving van
Europa komt. Daarom gaan we op basis van dat implementatiekader alvast aan de slag
binnen de Nederlandse overheid. Ik kan niet vooruitlopend daarop al dingen regelen
voor de private sector, maar wel voor de Nederlandse overheid. Dat is precies wat
ik aan het doen ben. Daarbij zullen we heel concreet worden over wat wel en niet mag.
In Nederland mag je niet discrimineren, punt. Dat mag er dus ook niet in zitten. We
zijn de teksten van dat implementatiekader aan het maken. Dat komt in de komende maanden
uw kant op. Ik hoor heel duidelijk uw wens om ervoor te zorgen dat dat zo concreet
mogelijk is. Dat ben ik zeer met u eens, want dat maakt het leven altijd fijner en
prettiger. Dat ga ik dus voor u doen.
De heer Van Baarle (DENK):
Dit is dan mijn laatste vraag. Mijn punt is dat ik dit nu al een aantal keer heb gevraagd
aan de Staatssecretaris. We hebben een Handreiking non-discriminatie by design en
andere nuttige producten waarin we heel concreet hebben omschreven wat je moet doen
om ervoor te zorgen dat een algoritme niet discrimineert. Voer dat gewoon in Nederland
in met een wet. Het antwoord was: nee, we gaan wachten op die AI Act, want die gaat
alles oplossen. In het antwoord hoor ik de concrete dingen die in die AI Act staan:
geen verboden onderscheid, je moet het identificeren, mensenrechtentoets vooraf. Maar
wat moet je identificeren? Welke mensenrechtentoets? Hoe dan? Dat vind ik te min.
Ik zou tegen deze Staatssecretaris willen zeggen: overweeg gewoon om bijvoorbeeld
die Handreiking non-discriminatie by design te formaliseren. Wacht niet op iets uit
Europa wat niet concreet is en uit drie losse criteria bestaat.
Staatssecretaris Van Huffelen:
Dat is ook precies wat we gaan doen. We gaan dat opnemen in het implementatiekader.
We gaan ervoor zorgen dat de Handreiking non-discriminatie by design en het IAMA bijvoorbeeld
als toets worden opgenomen. Bij de uitwerking van de AI Act mogen wij, als Nederland,
gewoon kiezen welke vorm van toetsing wij gaan hanteren. Dat kunnen we dus gewoon
invullen. Dan kunnen we die gebruiken. Misschien dat er in de loop van de tijd nog
betere mensenrechtentoetsen of ethische toetsen komen, want die ontwikkelen zich natuurlijk
ook. Dat gaat gewoon gebeuren. Het blijft dus niet bij deze algemene omschrijving.
Nogmaals, het is wellicht goed om nog een keertje een tekstexegese te doen van de
AI Act, maar er staat precies in wat u bedoelt. Er komt een toetsing vooraf. Er komt
zelfs een keurmerk voor de hoogrisicoalgoritmes. Dat betekent meer dan dat je toetst.
Het moet ook aantoonbaar zijn. Er is een instantie die daarop toeziet om ervoor te
zorgen dat het helder is welke toetsing vooraf is gedaan en welke voorzorgsmaatregelen
er zijn om ervoor te zorgen dat een dergelijk algoritme niet discrimineert en ook
anderszins voldoet aan de vereisten.
De voorzitter:
Vervolgt u uw betoog.
Staatssecretaris Van Huffelen:
Dan ga ik naar het punt over de algoritmes. De heer Slootweg vroeg – welkom bij deze
commissie, overigens – om een overzicht van de algoritmes waarvan de ontwikkeling
is uitbesteed en hij vroeg of ik afspraken kan maken over discriminatie. Ik heb geen
totaaloverzicht van welke algoritmes wel of niet zijn uitbesteed. De algoritmes die
de Nederlandse overheid gebruikt, kunnen namelijk zelf ontwikkeld zijn, maar ze kunnen
ook ingekocht zijn. Voor de regelgeving die wij gaan maken in Nederland, dus dat implementatiekader,
maakt het niet uit of het algoritme wordt gemaakt door iemand anders of door een overheidsorganisatie
zelf. Het moet voldoen aan de eisen die wij daaraan stellen. Juist met die AI-verordening
hebben wij ervoor gezorgd dat keurmerken niet alleen maar worden afgegeven door de
ontwikkelaars van algoritmes. De notificatieplicht ligt dus niet alleen bij de ontwikkelaar
maar ook bij de gebruiker. Ik vind dat zelf ontzettend belangrijk, want dan is altijd
duidelijk wanneer een algoritme wordt toegepast, ook al ben je zelf niet de ontwikkelaar
ervan. Nogmaals, dat kader gaan we dus ook hier in Nederland invoeren.
De heer Slootweg vroeg naar de ontwikkeling ... Was die motie van de heer Slootweg?
Ik ben even kwijt of die van u was.
De heer Slootweg (CDA):
Kleine correctie, voorzitter. Voordat ik het idee krijg dat ik loop te pronken met
de veren van een ander: ik geloof dat beide vragen door de heer Van Baarle zijn gesteld.
Het maakt verder niet uit, want we zijn nog steeds zeer geïnteresseerd naar de ...
Staatssecretaris Van Huffelen:
Dat dacht ik ook. Precies, het ging even mis. Maar het gaat dus over het ontwikkelen
van protocollen over hoe te handelen bij de constatering van discriminatie. Een. We
gaan dus zorgen dat algoritmes op dit terrein worden gereguleerd. Op het moment dat
blijkt dat er algoritmes zijn die toch niet voldoen, vind ik het vooral van belang
dat we zorgen dat er zo'n soort protocol wordt ontwikkeld. Dat hebben we op dit moment
namelijk niet. Ik denk dat het goed is om dit ook verder te gaan uitwerken. Ik zal
zorgen dat ik u snel laat weten hoe we dat zouden kunnen doen.
Dan waren er vragen van Volt over het algoritmeregister. Misschien loopt de volgorde
van de partijen nu een beetje door elkaar, maar als ik een vraag daardoor niet beantwoord,
dan hoor ik dat graag. Die vraag van Volt ging over de uitwerking van het algoritmeregister.
Mevrouw Koekkoek vroeg namelijk: goed dat we nu een start hebben gemaakt, maar hoe
gaan we ervoor zorgen dat het algoritmeregister verder wordt gevuld? Ik ben daar hard
mee aan het werk. Ik organiseer niet alleen bijeenkomsten daarover, maar ook zorg
ik ervoor dat het register zelf in communities en op platforms als Pleio en GitHub
verder wordt ontwikkeld. Dat doen we dus open source. We gaan ook aan het werk om
te zorgen dat we zo veel mogelijk mensen daarover informeren.
Maar ik zeg u ook toe dat ik mijn collega's in het Nederlandse kabinet nog een keer
goed zal aangeven dat dit register er is. Ik zal hun op het hart drukken dat zij en
de uitvoeringsorganisaties die onder de respectievelijke departementen vallen, aan
het werk moeten om dit register te vullen. Ik ben blij dat we het hebben. Ik weet
verder ook zeker dat we het nog verder gaan ontwikkelen en dat het verder gevuld zal
worden. Maar hoe meer en hoe sneller we dat doen, hoe beter en hoe liever mij dat
is.
De voorzitter:
Voor u verdergaat: u heeft een interruptie van mevrouw Dekker-Abdulaziz. Daarna komen
de heer Rahimi en mevrouw Kathmann.
Mevrouw Dekker-Abdulaziz (D66):
Dank aan de Staatssecretaris dat zij haar best gaat doen en het haar collega's op
het hart gaat drukken. Maar D66 ziet natuurlijk liever dat wij de overheid gewoon
verplichten om dat register te gebruiken. Ik denk dat dat er ook van komt bij de AI
Act, maar is de Staatssecretaris bereid om het algoritmeregister eerder een verplichtend
karakter te geven? Of doet zij dat, nu we toch bezig zijn, parallel aan de AI Act?
Staatssecretaris Van Huffelen:
We zijn daarmee aan het werk en ik zal uw Kamer daar ook over informeren. Het is namelijk
niet noodzakelijkerwijs precies hetzelfde als wat we beogen. Maar ik zal zorgen dat
we u daar wat meer informatie over geven, want het is inderdaad van belang dat het
niet een vrijblijvend instrument maar een verplicht instrument wordt. Maar u weet
net zo goed als ik dat wetgeving een tijdje kan duren en daarom hecht ik eraan dat
we ervoor zorgen dat, zolang die verplichting er nog niet is, organisaties zo hard
mogelijk aan het werk gaan. Ik vind het overigens wel fijn dat de organisaties die
al meedoen, hard aan het werk zijn. En dat zijn niet alleen maar partijen binnen de
landelijke overheid maar ook gemeenten. Ik vind dat heel verheugend, want dat maakt
dat het instrument steeds bekender wordt.
Mevrouw Dekker-Abdulaziz (D66):
Ik ben zeker heel trots dat sommige gemeente zelfs al voorlopen. Maar heeft de Staatssecretaris
ook een deadline of iets dergelijks in gedachten? Ik bedoel dat ze zegt: beste collega-ministers,
voor 1 mei moet dat gebeuren en voor 1 januari dat. Anders blijft ze wachten.
Staatssecretaris Van Huffelen:
In principe hebben we gezegd, volgens mij ook in de brief, dat we willen zorgen dat
het register voor het eind van het jaar gevuld is.
De heer Rahimi (VVD):
Wij hadden dezelfde vragen als mevrouw Koekkoek. Volgens mij was er een deadline en
ik dacht dat die eind 2024 was. Mijn vraag is om het naar eind 2023 te halen. Maar
volgens mij hoor ik nu dat dat gaat gebeuren. Dat is al fantastisch, maar ...
Staatssecretaris Van Huffelen:
Maar dan gaat het over de rijksoverheid, hè. Je kan niet voor alle gemeentes bepalen
dat zij daadwerkelijk alles al vullen. Maar ik vind dat de rijksoverheid moet zorgen
dat we het dit jaar rond hebben.
De heer Rahimi (VVD):
De Staatssecretaris gaf aan dat ze haar collega's gaat benaderen. Uitstekend. Daar
ben ik heel blij mee, maar is er ook een deadline voor de gemeentes en de waterschappen?
Is er voor hen een deadline en wat gaat de Staatssecretaris doen om te zorgen dat
zij het register gaan vullen?
Staatssecretaris Van Huffelen:
Jazeker. Ik gaf net ook al aan dat we dat actief aan het doen zijn door contact op
te nemen, door mensen daarbij te ondersteunen en door hen actief te vragen om het
in te vullen. Nogmaals, het helpt daarbij dat gemeenteraadsleden daar vragen over
stellen. Ik roep alle gemeenten en alle politieke partijen dan ook op om daar vragen
over te stellen aan hun eigen lokale besturen om zo te zorgen dat het wordt gevuld.
Mevrouw Kathmann (PvdA):
Eigenlijk zijn de vragen al gesteld. Ik wilde 'm eigenlijk stellen namens mevrouw
Koekkoek die helaas plenair moet debatteren. Ze probeert zo snel mogelijk terug te
komen, want haar vragen gingen inderdaad niet zozeer over het vullen als wel heel
expliciet over die verplichting. Ze had daar volgens mij ook een oplossing voor, nog
los van een langslepend wetgevingstraject. Ze herinnerde ons verder ook nog even aan
de motie-Dassen c.s. die onder die vraag om dat te doen ligt. Volgens mij is de geest
van haar vraag meer: hoe krijgen we dit versneld verplicht en hoe kunnen we zo snel
mogelijk recht doen aan die motie-Dassen c.s.? Volt had daar ook zelf een oplossing
voor.
Staatssecretaris Van Huffelen:
En die sluit aan op iets wat ik net ook al aangaf, namelijk dat we bezig zijn met
dat wetsvoorstel voor de versterking van de waarborgfunctie van de Awb, de Algemene
wet bestuursrecht. De bedoeling daarvan is dat al die algoritmes – ik zei het al eerder
– in kaart worden gebracht als die onderdeel zijn van besluitvorming door overheden.
Die wet is nu in preconsultatie, maar die komt er dus wel aan. En dat betekent dat
er zo snel mogelijk daadwerkelijk een wet is om mee te gaan werken.
Ik ga door met een vraag gesteld door de VVD. Hoe zorgen we ervoor dat het register
op een geautomatiseerde manier kan worden gevuld? En gaan we dat op korte termijn
doen? Ik heb al iets gezegd over dat vullen, maar ik weet niet of dat allemaal geautomatiseerd
kan. Ik hoop het wel, want dat helpt ervoor te zorgen dat het een zo makkelijk mogelijk
proces is om het register daadwerkelijk gevuld te krijgen.
De VVD vroeg hoe we ervoor zorgen dat de inzet van algoritmes en data-analyse niet
leidt tot beperking van de persoonlijk vrijheid en de privésfeer van burgers en ondernemers.
Dat is natuurlijk zeker wat we doen, want ons beleid is erop gericht om te voldoen
aan alle regels die we daarvoor hebben, want die zijn natuurlijk ongelofelijk belangrijk.
Ik ga verder met een aantal vragen van mevrouw Koekkoek. Zijn er voldoende wettelijke
kaders om de totstandkoming van algoritmen te garanderen? Ik denk het wel, ook al
zijn al die kaders er nog niet allemaal. We zijn die voor een deel nog aan het ontwikkelen.
Ik had het bijvoorbeeld al over dat implementatiekader en de AI Act. We moeten er
vooral voor zorgen dat we niet alleen een algemeen kader hebben, maar ook methodes
om mee te werken, bijvoorbeeld het IAMA, de mensenrechtentoets, het uitvoeren van
de Code Goed Digitaal Openbaar Bestuur enzovoorts enzovoorts. We werken daar dus op
verschillende manieren aan, maar klaar zijn we zeker niet, ook omdat er steeds weer
nieuwe ontwikkelingen zijn op dit gebied.
Mevrouw Koekkoek vroeg ook naar de motie van DENK die van de overheid vraagt om bij
besluiten aan te geven of er sprake is van het gebruik van algoritmen. Dat is precies
wat we in die nieuwe aangevulde versie van de Awb gaan doen. We gaan ervoor zorgen
dat helder wordt hoe besluiten worden genomen en hoe die tot stand komen. Het gaat
daarbij niet alleen om de vraag of er algoritmen worden gebruikt, maar ook om welke
data er worden gebruikt voor het nemen van een besluit en waar die data vandaan komen.
Als er bijvoorbeeld naar iemands inkomen wordt gekeken of als er wordt gekeken of
je wel of niet een subsidie krijgt, dan wordt gekeken waar die gegevens over het inkomen
vandaan komen. Die kunnen bijvoorbeeld van de Belastingdienst komen, maar adresgegevens
kunnen dan weer uit de BRP komen.
Dan was er nog een vraag, van de PvdA: wat kunnen burgers doen als blijkt dat algoritmes
niet tot een juiste uitkomst leiden? Daarvoor gelden natuurlijk altijd bezwaar- en
beroepsprocedures, maar wij hebben ook nog een keer expliciet laten opnemen in de
AI-verordening dat er een mogelijkheid is om bezwaar aan te tekenen en in beroep te
gaan tegen uitkomsten die door algoritmes zijn gerealiseerd. In Nederland geldt daar
natuurlijk de procedure voor die we kennen.
Dan was er ook een vraag van de PvdA naar aanleiding van de reflectie van de heer
Krijger: is een algoritmeregister wel voldoende? Beter gezegd: ik begrijp dat de heer
Krijger vooral aangeeft dat dit niet zo is en dat er meer mogelijkheden moeten zijn
voor experts om zich daarin te verdiepen. Dat is inderdaad wat wij heel graag willen.
Wij maken een algoritmeregister niet alleen voor bijvoorbeeld de toezichthouder of
voor burgers die weten dat er een algoritme wordt gebruikt bij het nemen van besluiten
door de overheid, of vanwege transparantie over algoritmes in het privédomein, bijvoorbeeld
met betrekking tot algoritmes die worden ingezet door socialmediaplatforms. Wij maken
zo'n register ook juist zodat het mogelijk wordt voor onderzoekers, ngo's en belangenorganisaties
om inzicht te krijgen in hoe die algoritmes eruitzien en hoe ze werken, dus om ze
te kunnen onderzoeken, enzovoort, enzovoort. Alleen maar weten dat het er is, is onvoldoende
om te begrijpen wat zo'n algoritme daadwerkelijk doet.
Mevrouw Kathmann (PvdA):
Voorzitter, het was een goede ingreep om eerst even de tweede vraag te laten beantwoorden,
want de eerste vraag was niet zozeer wat burgers kunnen doen als het algoritme het
fout heeft; het ging meer om de bredere context: wat doet dat met besluitvorming?
We praten hier vooral over algoritmes en de mensenrechtentoets, maar we kunnen het
daar gewoon niet mee platslaan, hoe graag we dat ook zouden willen. Er is een veel
bredere kijk nodig: hoe is het ontwikkeld, hoe is het vervolgens ingezet en hoe werkt
het precies? Dat was eigenlijk mijn vraag. Daarom ben ik blij met de beantwoording
van de tweede vraag. Ik zou daar alleen wel een iets concreter antwoord op willen
krijgen: hoe gaan we dat dan vormgeven? Komen er dan meer commissies, zoals de heer
Krijger voor ogen heeft? Of krijgt zo'n commissie als het UWV nu heeft bijvoorbeeld
een ander mandaat om het werk te doen dat de heer Krijger voor ogen heeft? Hoe maken
we dit concreet en hoe geeft de Staatssecretaris dat aan ons terug?
Staatssecretaris Van Huffelen:
Mijn ministerie is met hem in gesprek hierover, dus ik denk dat het goed is dat ik
u over de uitkomsten daarvan iets meer laat weten. Wij zeggen met betrekking tot algoritmes
natuurlijk dat helder moet zijn wanneer ze gebruikt worden en hoe ze werken, dat ze
transparant en open source moeten zijn, dat de codes daarvan helder moeten zijn en
dat ook duidelijk moet zijn hoe ze functioneren. We hebben niet voor niets dat register
én een toezichthouder die daarnaar moet kijken. Maar ik denk dat het goed is dat ik
op basis van het gesprek dat we daarover hebben gevoerd, en wellicht ook op basis
van andere gesprekken in dat kader, daar nog iets meer over zeg. Ik ben niet zomaar
geneigd om er nog een commissie bij te doen. Ja, ik begrijp dat u dat jammer vindt,
mevrouw Kathmann. Ik vind het vooral belangrijk dat we echt structureel inzicht bieden.
Daarbij is het ook niet alleen maar zo dat de overheid zelf dat moet doen. We hebben
juist gezien dat heel veel controles in dit werkgebied voortkomen uit de communities
rondom bepaalde onderwerpen en rondom bepaalde programmatuur. Ik vind het heel belangrijk
dat onderzoekers, maar ook belangenorganisaties en anderen, in staat zijn om inzicht
te krijgen in hoe die algoritmes werken, zodat er meer mensen aan het werk kunnen
om te ontdekken wat hier nou precies gebeurt. Ik kom daar graag op terug.
De voorzitter:
U heeft een vervolgvraag van mevrouw Kathmann. Nogmaals – ik zeg dit niet specifiek
richting mevrouw Kathmann, maar in algemene zin – als we nog een tweede termijn willen,
moeten we het kort houden, dus daarvoor doe ik een beroep op iedereen.
Mevrouw Kathmann (PvdA):
Toch even om het even concreet te maken. Ik ben heel blij met de toezegging dat er
een terugkoppeling komt over het gesprek. Maar de crux is nou juist dat wij ook gebruikmaken
van algoritmes op een aantal terreinen waarop geen inzage gegeven kan worden, omdat
het geheim moet blijven of problematisch is. De commissies moeten in die gevallen
juist inzicht krijgen: mensen die wel het mandaat hebben om alles te doorgronden,
moeten daarin aan het werk kunnen, ook al wordt het dan niet helemaal publiekelijk
toegankelijk. Ik zou wel graag zien dat dat door de Staatssecretaris wordt meegenomen
in de terugkoppeling.
Staatssecretaris Van Huffelen:
Ja, maar misschien kan ik toch al direct kort antwoord geven op de opmerking dat soms
niet alle algoritmes helemaal publiekelijk kunnen zijn, omdat dat bijvoorbeeld te
maken heeft met de aard van het algoritme; de toezichthouder heeft altijd toegang.
Het is dus niet zo dat de AP of andere toezichthouders die daar in de toekomst wellicht
aan worden toegevoegd geen toegang hebben. Die kunnen altijd in de algoritmes kijken,
bijvoorbeeld van de politie of van instanties, terwijl dat in het publieke domein
niet zomaar kan. Dat deel is dus afgedekt. Nogmaals, ik zal er zeker ook voor zorgen
dat dit een onderwerp is dat we met de heer Krijger bespreken.
De voorzitter:
De toezichthouder. Als we eraan toekomen vandaag, dan komt dat nog. Allereerst nog
een interruptie? Nee. We kunnen door.
Staatssecretaris Van Huffelen:
O, ik mag verder? Oké, fijn. Dan kunnen we het inderdaad even over die toezichthouder
hebben. In tegenstelling tot het beeld dat er in de eerste termijn van de Kamer leek
te bestaan, is het niet zo dat de AP geen bevoegdheden heeft. De AP heeft wel degelijk
bevoegdheden om op basis van algoritmes aan het werk te gaan en is ook al in staat
om – en dat mag zij ook, als dat nodig is – onderzoeken te doen, boetes uit te delen,
enzovoort, enzovoort. De AP heeft twee rollen, namelijk de rol van toezichthouder,
met de tanden, de bevoegdheden, waar u het allemaal eerder al over had, en – dat is
de tweede rol – het verder uitwerken van het normenkader en het samenwerken met andere
toezichthouders. Sommige algoritmes gaan over specifieke soorten werkvelden waarop
het nodig en wenselijk is, vanuit de AP, maar ook vanuit ons, om samen te werken met
anderen.
Wat natuurlijk nog wel moet worden ingevuld, is welke specifieke bevoegdheden de AI-verordening
de AP ook nog zal geven. Maar dat is on top of. Met de huidige bevoegdheden die de
AP heeft en die in het kader van algoritmes waarmee persoonsgegevens worden verwerkt,
kan zij gewoon prima aan het werk om dat te doen. Sterker nog, we weten dat ze dat
ook doet, want op basis van het algoritme heeft bijvoorbeeld de Belastingdienst van
de AP een boete gekregen. Het is dus niet zo dat de AP geen tanden heeft. Zij kan
wel degelijk aan de gang. Om die vraag nog verder te beantwoorden: zij heeft daarvoor
ook middelen gekregen en heeft inmiddels een groep mensen ingehuurd om aan het werk
te gaan. De lancering daarvan was begin januari. Het wordt en blijft ook altijd heel
erg belangrijk om te bezien of dat voldoende zal zijn – daarover werden ook Kamervragen
gesteld – om dat werk in de komende tijd te blijven doen. Dat wordt natuurlijk extra
relevant wanneer we meer inzicht krijgen in de extra taken en bevoegdheden die mogelijkerwijs
door de verordening uit Europa aan de AP gegeven zullen worden.
Ik heb een aantal vragen van mevrouw Bouchallikh eigenlijk al beantwoord. Die gingen
over de deadlines en die thema's. Ik ben u dus niet vergeten, maar anders val ik in
herhaling. Even kijken of ik dan het toezicht behandeld heb.
De voorzitter:
We zijn nog niet bij het kopje toezicht, volgens mij.
Staatssecretaris Van Huffelen:
Nee, we zijn nog niet bij het kopje toezicht, maar dit waren al vragen over toezicht.
Ik ga nu dus snel naar het kopje toezicht.
De voorzitter:
Ik zag namelijk de leden wat verward kijken. We gaan dan nu door naar het kopje toezicht.
Staatssecretaris Van Huffelen:
Ja, inderdaad. De eerste vraag was van de heer Slootweg. Die vraag gaat over de doorzettingsmacht
en de mogelijkheid om dingen te doen. De AP heeft dus tanden en kan aan het werk,
maar we gaan dat verder uitwerken naar aanleiding van de eventuele extra bevoegdheden.
Als het gaat over de gezamenlijke normuitleg: dat kan de AP natuurlijk sowieso doen.
Zij heeft ook de doorzettingsmacht op het thema van de persoonsgegevens. Voor de andere
sectoren gaat de AP samenwerken met andere toezichthouders om gezamenlijk te komen
tot de normuitleg. Dat is dus een ontwikkeling die we in de komende tijd zullen zien.
De AP heeft ook echt de mogelijkheid om boetes op te leggen of om op andere manieren
aanwijzingen te geven; zij kan in ieder geval het instrumentarium daarvoor inzetten.
Ik probeer het een beetje snel te doen.
De voorzitter:
Ik zie dat mevrouw Kathmann een vraag heeft. Ik zie dat er nog altijd een hele hoop
vragen zijn. U kunt allicht uw vraag nog stellen, mevrouw Kathmann, maar het zou uw
laatste interruptie zijn. Dat is uiteraard aan u. Wilt u het afwachten of wilt u nu
de interruptie plaatsen? Afwachten.
Mevrouw Kathmann (PvdA):
Nee, want ik had mij juist aangesloten bij een hoop vragen van anderen om ze niet
dubbel te stellen. Ik had me onder andere voor dit kopje aangesloten bij de vragen
van het CDA, maar ik zou wel concreet van de Staatssecretaris willen horen welke doorzettingsmacht
de algoritmetoezichthouder dan heeft om de samenwerking met colleges, markttoezichthouders
en rijksinspecties te optimaliseren. Wat is dan die doorzettingsmacht? Wat als zij
nou niet willen meewerken? Want daar had het CDA het juist over. Er is een heel palet
aan toezichthouders en dan heb je de AP zelf ook nog, en niet alleen als algoritmetoezichthouder.
Dat zit allemaal in een samenwerkingsverband. Maar wat is de escalatieladder? Wat
zijn nou echt het mandaat en de doorzettingsmacht in dat geheel? Hoe zien die eruit?
Wordt dat nog concreet gemaakt? Komt die escalatieladder bijvoorbeeld snel? Daar ben
ik heel benieuwd naar.
Staatssecretaris Van Huffelen:
De AP kan op basis van de huidige wettelijke bevoegdheden die ze heeft, toezicht houden
op algoritmes waarbij sprake is van het gebruik van persoonsgegevens. Dat kan de AP
doen. Dat doet ze ook en dat gaat ze verder ook doen.
Het tweede thema in de brief die ik u heb gestuurd, gaat over het verder ontwikkelen
van het toezicht op algoritmes in bredere zin. Daar is nog geen wettelijke basis voor.
De toezichthouders hebben wel met elkaar afgesproken om daar een normenkader voor
te ontwikkelen. Daar ben ik ook bij betrokken. Dat is onderdeel van de agenda die
ik heb gemaakt. We willen namelijk zorgen dat helder wordt aan welke vereisten algoritmes
moeten voldoen en hoe het toezicht daarop wordt ingericht. Maar ik vind het prima
– bij een vorig debat heb ik daar ook al iets over verteld – dat ik daarover een gesprek
heb met die toezichthouders. Als ik kan helpen door nog iets meer op papier te zetten
over hoe dat precies loopt, wil ik dat voor u uitwerken, maar de mogelijkheid om daadwerkelijk
in te grijpen is er al.
De voorzitter:
Mevrouw Leijten, voor uw derde interruptie.
Mevrouw Leijten (SP):
Er wordt hier gezegd dat het kan, terwijl de wettelijke basis er niet is. Het gaat
om algoritmes bij de verwerking van persoonsgegevens, maar er kan niet gekeken worden
of een algoritme veilig is, of het een mensenrechtenkader heeft of dat het door te
veel mensen wordt ingezien. Dat kan allemaal niet. Daar is nu geen wettelijk kader
voor. De Staatssecretaris zegt wel dat de AP dat allemaal kan, maar de analyse die
wij maken is dat het gewoon niet gereed is. Niet voor niets wordt het een expertisecentrum
genoemd. Ik vond dat eigenlijk een hele goede term. Maar in de fase waarin we nu zitten,
vragen we niet meer om een expertisecentrum. We zijn aan het opruimen bij de overheid.
Iedereen doet dat op een andere manier. We willen het register aan het einde van het
jaar gevuld hebben. Er is iemand die bij die algoritmes kan; dat is bijvoorbeeld de
Algemene Rekenkamer. Die doet er zes per jaar. Dat is een ontzettend grote klus. Die
checkt ze op allerlei punten en daar komen altijd allemaal rode vlaggen uit. Dat kan
de AP straks niet en dat mag de AP straks ook niet. Waarom blijft de Staatssecretaris
nou zeggen dat dat wel geregeld is?
Staatssecretaris Van Huffelen:
Volgens mij ben ik in mijn beantwoording heel precies: de AP heeft, op basis van de
huidige wettelijke bevoegdheden, de mogelijkheid om algoritmes waarin persoonsgegevens
worden verwerkt, daadwerkelijk te onderzoeken en te acteren op basis van eventuele
fouten die ze opmerkt, met uiteindelijk de mogelijkheid om boetes in te zetten. Ik
heb aangegeven dat we ook nog de algoritmeverordening hebben, die nu in Europa wordt
afgerond. Die zal waarschijnlijk, bijna wel zeker, extra bevoegdheden geven aan nationale
toezichthouders. Wij werken hard aan de uitwerking daarvan. Ik heb u eerder al toegezegd
dat ik daar met de verschillende toezichthouders over ga spreken. Dat ga ik ook doen.
Dat gesprek zal volgende maand, in maart, plaatsvinden met de ACM, het Agentschap
Telecom enzovoorts, enzovoorts. We gaan samen met hen kijken hoe we het toezicht op
een veel bredere set van verordeningen, maar zeker ook op de AI-verordening, kunnen
inrichten en uitwerken, zodat er daadwerkelijk een stelsel van toezicht ontstaat dat
doet wat wij met elkaar graag willen dat het doet: ervoor zorgen dat er noch in het
private domein, noch in het publieke domein algoritmes kunnen worden ingezet waardoor
de regels, wetten en grondrechten van Nederlanders met voeten worden getreden.
De voorzitter:
Ik zie dat u een vervolgvraag wilt stellen, mevrouw Leijten.
Mevrouw Leijten (SP):
De Staatssecretaris zegt dat ze heel precies is. Ze zegt: er kunnen geen algoritmes
ingezet worden die de algemene belangen die we hebben geformuleerd, schenden. Maar
waar staan die belangen dan precies geformuleerd? Wat is het waardekader? Want er
wordt iedere keer naar verwezen dat dat nog wordt gemaakt bij de werkagenda. Hoe wordt
dat dan uit de lucht gehaald? Want dat gebeurt op dit moment. De AP kan op dit moment
geen algoritmes uit de lucht halen. Dus als de Staatssecretaris dan precies is, dan
wil ik ook dat ze écht precies uitlegt hoe het zit.
Staatssecretaris Van Huffelen:
Het is goed om dat nog een keer te zeggen. Ik heb aangegeven op welke wettelijke basis
de AP het werk nu kan doen. Dat betekent dat de AP op dit moment geen expertisecentrum
is, maar een organisatie die daadwerkelijk kan handhaven als het gaat over algoritmes.
Er zijn ook nog zaken in ontwikkeling. Ik ben het met mevrouw Leijten eens dat het
heel fijn zou zijn als we alles al geregeld hadden op dit gebied, maar dat is niet
zo. We hebben wel met elkaar afgesproken dat we heel hard aan het werk gaan om de
regulering van algoritmes verder vorm te geven. En dat gaan we ook verder doen. Maar
dat betekent niet dat er nu niks kan. Dat betekent wel dat we nog veel meer willen.
En dat gaan we ook inrichten.
Voorzitter. Ik heb nog een stapeltje antwoorden voor me liggen. Alle vragen over de
toezichthouder heb ik al beantwoord. Er liggen nog antwoorden op vragen over de escalatie,
maar volgens mij heb ik alle vragen over de toezichthouder inmiddels beantwoord.
De voorzitter:
Voordat we doorgaan met het volgende blokje, is er een aantal interrupties. Mevrouw
Leijten laat zich excuseren, want zij moet naar een volgend debat. Mensen moeten dus
niet denken dat ze is opgestaan, omdat ze boos is.
Staatssecretaris Van Huffelen:
Nee, zo ken ik haar ook niet.
De voorzitter:
Nee, zeker niet, maar gezien de context wilde ik het in dit geval wel even expliciet
benoemen.
U heeft interrupties van mevrouw Dekker-Abdulaziz namens D66 en daarna van de heer
Slootweg namens het CDA.
Mevrouw Dekker-Abdulaziz (D66):
Ik vraag mij af of al mijn vragen beantwoord zijn. Ik hoorde de Staatssecretaris het
hebben over een implementatiekader. Zij sprak ook over een normenkader. Ik kan me
herinneren dat we het in het wetgevingsoverleg hebben gehad over de planning van de
Staatssecretaris. Er zou medio dit jaar wetgeving komen naar aanleiding van de vraag
waar de toezichthouder nu precies toezicht op gaat houden. We zouden niet per se wachten
op de AI-verordening. Ik hoor daar graag nog een antwoord op.
Staatssecretaris Van Huffelen:
Het spijt mij dat we soms heel veel woorden door elkaar gebruiken. Dat maakt het misschien
niet altijd even helder, ook niet voor de mensen die dit debat volgen. Er is inderdaad
sprake van regelgeving vanuit de EU. Die moeten we als Nederland uiteraard implementeren.
Wij vinden dat heel belangrijke regelgeving. We hebben er hard aan gewerkt om ervoor
te zorgen dat die goed is en dat die ook doet wat wij ermee beogen, namelijk ervoor
zorgen dat algoritmes alleen maar kunnen worden gebruikt als ze voldoen aan basisgrondrechten
en mensenrechten.
Om niet alleen maar te hoeven wachten, hebben we al een aantal stappen gezet. Een
van die stappen is het register, het ervoor zorgen dat we dat ook verder gaan vullen.
Ik noem het alvast opzetten van de autoriteit, die alvast aan het werk kan. En ik
noem voorts het ervoor zorgen dat we, vooruitlopend op die Europese verordening, voor
overheidsalgoritmes al aan het werk gaan met het bepalen aan welke vereisten die moeten
voldoen. Er moet bijvoorbeeld zo'n privacy-by-designtoets worden uitgevoerd, er moet
een mensenrechtentoets plaatsvinden enzovoorts, enzovoorts. Er moet überhaupt worden
bepaald of een algoritme wel wenselijk is in die situatie. Dat noemen we het implementatiekader.
Daarvan heb ik gezegd dat dat dit jaar nog komt. Dat is één.
Het tweede is dat mevrouw Leijten vroeg naar een waardekader. Zij vroeg dus niet naar
een normenkader. Bij dat waardekader gaat het om de vraag hoe je in het algemeen –
dus niet alleen als het gaat om algoritmes – de afweging maakt ten aanzien van de
wenselijkheid van bepaalde soorten van technologie en het gebruik daarvan. Dat is
een onderdeel van de agenda die ik heb gemaakt. Die heeft betrekking op de komende
periode, op de komende jaren. Onderdeel daarvan is dat ik die ook ga opstellen. Daar
heb ik wel iets meer tijd voor nodig, maar ik hoop u wel in de komende tijd te kunnen
informeren over hoe we dat doen, ook omdat verschillende organisaties binnen de overheid
in Nederland, bijvoorbeeld gemeenten, al zo'n waardekader hebben opgesteld. Maar wij
willen dat dus ook opstellen voor de rijksoverheid. Dus dat is wat ik ga doen.
De heer Slootweg (CDA):
Ik denk dat de Staatssecretaris het wettelijk kader voor de Autoriteit Persoonsgegevens
voor het toezicht op de persoonsgegevens duidelijk heeft uitgelegd. Er zijn veel algoritmes
die in ontwikkeling zijn. Is het nou zo dat de Autoriteit Persoonsgegevens een rol
heeft bij het toestaan dat dat soort algoritmes elders worden gebruikt? Of is dat
niet het geval? Dat willen we graag weten. Op het moment dat nu een algoritme wordt
ontwikkeld en wordt toegepast, en dan niet direct op het terrein van de AP maar in
samenwerking met andere toezichthouders, moeten ze dan eerst langs de AP?
Staatssecretaris Van Huffelen:
Nee, dat moet niet. Die rol gaat de toezichthouder waarschijnlijk ook niet krijgen,
want dan zou de toezichthouder eerst een soort keurmerk moeten uitdelen. Op dit moment
staat dat niet in de bevoegdheden van de AP, ook niet als het gaat over andere issues
op het gebied van privacy waarin de AP een rol, taak en functie heeft. Maar nogmaals,
in de Europese verordening is er wel degelijk sprake van een keurmerk voordat je een
algoritme mag inzetten dat onder de hoogrisicocategorie valt. Laten we er helder over
zijn: in de meeste gevallen gaat het dan over algoritmes waarin persoonsgegevens worden
gebruikt. Daarom is de rol van de AP nu ook al best substantieel. Dan moet dat algoritme
dus wel voldoen aan een keurmerk voordat je het mag inzetten. De toezichthouders die
dat gaan doen, moeten nog worden aangewezen.
De heer Slootweg (CDA):
Dat begrijp ik, en ik deel met de Staatssecretaris dat de grootste risico's op het
gebied van persoonsgegevens zitten. Ik heb een vervolgvraag over de rol die de AP
speelt. Vindt de Staatssecretaris het verstandig om op termijn te werken aan een wettelijke
grondslag voor het ontwikkelen van algoritmes met persoonsgegevens of voor dingen
die buiten persoonsgegevens vallen maar waar die toch in verwerkt worden? Is dat op
termijn ook de doelstelling van de Staatssecretaris?
Staatssecretaris Van Huffelen:
Ja, en niet eens op termijn, want dat is precies wat we met die AI-verordening aan
het regelen zijn. Die wetgeving heeft directe doorwerking in Nederland en stelt dat
er transparantie moet zijn over algoritmes, dat helder moet zijn hoe ze worden gebruikt
en welke effecten ze hebben enzovoorts, zowel in het publieke als private domein,
dus bijvoorbeeld ook voor socialmediaplatforms.
De voorzitter:
Mevrouw Dekker-Abdulaziz, uw derde interruptie.
Mevrouw Dekker-Abdulaziz (D66):
Ja, ik heb ook geteld, voorzitter: mijn derde. Ik hoorde nu voor de zoveelste keer
de Staatssecretaris spreken over socialmediaplatforms. Maar uit de AI-verordening
en gesprekken met experts heb ik begrepen dat de aanbevelingsalgoritmes van socialmediaplatforms
niet onder de hoogrisicoalgoritmes vallen, en dat er dus helemaal geen toezicht op
hoeft te zijn. Ik ben heel blij dat de Staatssecretaris wel vindt dat dit zo moet
zijn. Ik hoor daarom graag of ze zich in Europa verder gaat inzetten op dit gebied,
want ik maakte me daar best wel zorgen over.
Staatssecretaris Van Huffelen:
Misschien even om het helder te hebben: die zitten in de DSA, dus in een andere Europese
verordening. Maar daar is toezicht op, ja.
De voorzitter:
Dank u wel. Ik kijk even rond. Iemand in dit blokje? Nee? Dan gaan we door naar het
derde blok: mensenrechten. Daarna volgt nog het blokje met overige onderwerpen.
Staatssecretaris Van Huffelen:
Het gaat dan vooral over de vraag, door de VVD gesteld, hoe we gaan zorgen dat algoritmes
ethisch verantwoord en in overeenstemming met juridische principes worden ingezet.
Ik heb daar net al iets over gezegd. Volgens mij heb ik deze vraag dus net al beantwoord;
misschien zit die dubbel in mijn stuk. Het is dan maar extra helder dat het algoritmebeleid
er inderdaad voor zorgt dat non-discriminatie, transparantie en een gelijke behandeling
aan de voorkant worden ingericht, op de verschillende manieren die ik net al heb genoemd,
met een implementatiekader voor AI-regelgeving enzovoorts.
Dan de vraag van mevrouw Bouchallikh. Zij zei: waarom is er nog geen mensenrechtentoets
uitgevoerd volgens het algoritmeregister? We hebben, overigens ook op mijn verzoek,
het vakje in dat register daadwerkelijk ingevuld omdat ik het belangrijk vind om dat
te doen. Inmiddels zijn al een heleboel van die assessments gedaan. Voorbeelden daarvan
zijn de Belastingdienst, het CJIB, gemeenten en provincies. Ook de gemeente Rotterdam
heeft het al ingepast. Maar het is nog niet voor 100% ingevuld in het register. Dat
gaan we in de komende tijd actualiseren, want gelukkig wordt het IAMA wel degelijk
al toegepast.
De heer Slootweg vroeg of het nodig is om de rechtsbescherming van burgers te versterken
als er fouten ontstaan op basis van het gebruik van algoritmes door overheidsinstanties.
Wat mij betreft is de rechtsbescherming op dit gebied voldoende ingericht, zowel als
het gaat om niet-algoritmegebruik als om algoritmegebruik. Maar zoals ik al eerder
aangaf, gaat de Wet versterking waarborgfunctie van de Algemene wet bestuursrecht
ervoor zorgen dat helder wordt wanneer een besluit wordt of is genomen met behulp
van een algoritme. Zo is ook duidelijk voor mensen hoe dat een effect gehad zou kunnen
hebben op het genomen besluit. Daarmee kan de motiveringsplicht aan burgers worden
verbeterd en is ook helderder waartegen je in bezwaar of beroep kunt als dat aan de
orde is.
De voorzitter:
Voordat u naar het laatste blok gaat, heeft u een interruptie van de heer Rahimi van
de VVD. Dat is zijn derde.
De voorzitter:
Voordat u naar het laatste blok gaat, heeft u nog een interruptie van de heer Rahimi,
VVD. Dat is zijn derde interruptie.
De heer Rahimi (VVD):
Mijn vraag aan de Staatssecretaris gaat over het toetsen van de algoritmes. Er wordt hier best vaak over IT gesproken. Het punt is dat dat inzicht heel
belangrijk is, maar ook de vraag hoe. Een derde gaat namelijk over cultuur, organisatie,
structuur en ook een stukje qua IT. Wat heel belangrijk is als dat inzichtelijk wordt,
is dat allerlei maatschappelijke actoren iets kunnen vinden. Ik verwacht niet dat
burgers gaan inloggen op het algoritmeregister om te kijken of ze er wel of niet in
vallen, maar heel veel maatschappelijke actoren wel. Die kunnen dat doen. Als ze dat
doen, bereiken we iets. Dan maken we eigenlijk gewoon inzichtelijk wat wij doen. Dat
is eigenlijk wat ik bedoelde. Dat is een antwoord dat u eerder gaf. Het duidelijk
neerzetten wat ze doen en wat ermee gebeurt, is heel belangrijk. Het antwoord van
de Staatssecretaris was vrij kort. Neemt ze deze onderdelen mee in de inzichtelijkheid?
Staatssecretaris Van Huffelen:
Het antwoord is ja. Dat doen we natuurlijk met de aanvulling op de Algemene wet bestuursrecht
en met dat register, maar dat register is niet iets wat je als niet-opgeleid persoon
alleen maar goed kunt gebruiken. Het is vooral bedoeld voor onderzoekers en voor belangenorganisaties.
Los daarvan wil ik dat ook voor normale burgers helder is hoe de besluitvorming van
de overheid werkt. Dat gaan we dus doen met die aanvulling op de Algemene wet bestuursrecht.
Dan was er nog een vraag van de SP over de uitspraak van de Hoge Raad over etnisch
profileren. Die uitspraak kwam ook gisteren aan bod in het debat met de Staatssecretaris
van JenV. Hij heeft aangegeven dat die uitspraak wordt bestudeerd, dat op basis daarvan
een beslissing wordt genomen en dat uw Kamer daarover wordt geïnformeerd. Ik kan daar
nu verder niet op vooruitlopen.
Dan was er ook nog de vraag van D66 over het feit dat de Verenigde Staten TikTok verbieden
voor ambtenaren en of dat ook van toepassing is op onze ambtenaren. Niet zomaar natuurlijk,
want de VS bepalen niet wat onze ambtenaren doen, maar ik begrijp wel de zorg die
er is. U heeft daar ook al eerder vragen over gesteld. Niet voor niks zijn we dat
ook aan het bestuderen. De Nederlandse overheid heeft in ieder geval gezegd dat wij
TikTok niet willen gebruiken voor het delen van overheidsinformatie. Daarvoor gebruiken
we wel vaak andere socialmediaplatforms om mensen te informeren over nieuwe regelingen,
subsidies of andere soorten informatie. Dat doen we met TikTok op dit moment niet,
omdat ons te weinig duidelijk is hoe het platform precies werkt en hoe het omgaat
met de data die verzameld worden. Om die reden vind ik het ook belangrijk om te onderzoeken
of we dit daadwerkelijk willen gaan invoeren voor alle overheidsmedewerkers. Ik snap
uw punt. Ik begrijp ook dat het niet alleen uw vraag is. Ik heb via de media begrepen
dat dat gesteund wordt door een viertal partijen in totaal, dus in ieder geval alle
partijen van de coalitie. Ik denk dat het inderdaad heel goed is dat we daar zo snel
mogelijk een antwoord op krijgen, maar ik wil dat wel goed bestuderen voordat ik daar
definitief ja of nee op zeg. Nogmaals, ik begrijp uw zorg. Ik heb dezelfde zorgen
over dit medium.
De voorzitter:
Aangezien de heer Slootweg net zo galant was om te zeggen dat de vragen over een bepaald
onderwerp van de heer Van Baarle waren: volgens mij had ook de heer Slootweg vragen
over TikTok. Hij heeft ook nog een interruptie.
De heer Slootweg (CDA):
Daarbij gaf ik overigens aan dat mevrouw Hind, mevrouw Dekker-Abdulaziz, deze vraag
ook eerder heeft gesteld. TikTok is natuurlijk één medium. Daarvan hebben we wat meer
inzicht dat we geen inzicht hebben. Doet u dat onderzoek ook naar andere van dit soort
applicaties, die misschien toch echt een probleem kunnen wezen door smartphonegebruik
van ambtenaren? Dus is dit onderzoek beperkt tot TikTok of kijkt u in wat bredere
zin of er ook andere applicaties zijn die dit gevaar met zich mee kunnen brengen?
De voorzitter:
Dit is een brede vraag. We hebben daar net een ander debat over gehad en we zijn al
bijna aan het einde van dit debat. Volgens mij kunnen we hier een hele beschouwing
over houden. Daarom zou ik de Staatssecretaris willen vragen het zo kort mogelijk
te houden, zodat we nog door kunnen naar de tweede termijn. Ik snap de vraag heel
goed en het is natuurlijk wel aanpalend, maar nogmaals, we hebben hier onlangs het
bredere debat over gehad.
Staatssecretaris Van Huffelen:
Even heel kort dan. Een voorbeeld van dat we dat onderzoek hebben gedaan, is dat we
een zogenaamde DPIA hebben uitgevoerd op Facebook Pages. Dat zijn de bedrijfspagina's
op Facebook die door de overheid worden ingezet. We hebben de conclusie getrokken
dat die volgens ons niet voldoet aan de AVG, aan de privacyvereisten. Daar heb ik
u ook verder over geïnformeerd. Daarover zijn wij in onderhandeling met Facebook,
met name omdat ik het van belang vind dat uiteraard alle platformen voldoen aan de
vereisten voordat we er gebruik van maken. Als ze dat niet doen, is mijn algemene
lijn, die ik ook graag wil volhouden, dat ik eerst met hen in overleg ga om te zorgen
dat ze wel gaan voldoen aan de vereisten. Als ze dat uiteindelijk niet doen, nemen
we als overheid afscheid van hun diensten.
De voorzitter:
Dank u wel. Dan zijn we daarmee aan het einde gekomen van de beantwoording in eerste
termijn. Ik kijk even rond of er behoefte is aan een tweede termijn. Ik zie al een
aantal leden knikken. Dan geef ik als eerste het woord aan de heer Van Baarle namens
DENK.
De heer Van Baarle (DENK):
Voorzitter. Laat ik allereerst beginnen met de Staatssecretaris hartelijk te danken
voor de beantwoording. Ook bedankt dat de Staatssecretaris aan de slag wil gaan met
het opstellen van de protocollen voor als er discriminatie geconstateerd wordt. Mijn
vraag is op welke termijn we die kunnen verwachten. Het is ook fijn om te horen dat
er aan de slag wordt gegaan met onze motie om in de Algemene wet bestuursrecht de
uitlegbaarheid van algoritmische besluiten mee te nemen.
Voorzitter, dat gezegd hebbende. De Staatssecretaris heeft de fractie van DENK in
het verleden toegezegd onderzoek te doen naar een discriminerend risicoprofiel in
de Basisregistratie Personen. Eerder heeft de Staatssecretaris aangegeven dat de resultaten
van dat onderzoek in oktober van het vorige jaar zouden komen. Daarna heeft ze gezegd
dat die aan het einde van het vorige jaar zouden komen. Ik heb ze nog niet. Mijn vraag
is waarom. Ik maak me daar zorgen over.
Voorzitter. Mijn laatste vraag gaat over het implementatiekader van de AI Act. Wanneer
kunnen we dat verwachten? Is er ook de mogelijkheid om als Kamer nog in de zwaarte
van hoe wij de AI Act kunnen interpreteren mee te kijken en mee te sturen hoe we dat
gaan inrichten?
Daar zou ik het graag bij willen laten, voorzitter.
De voorzitter:
Dank u wel. Dan is de volgende spreker de heer Slootweg, CDA.
De heer Slootweg (CDA):
Dank u wel, voorzitter. Allereerst bedankt voor uw geduld en dat van de collega's.
Ik heb misschien een aantal dingen dubbel gedaan. Dank ook aan de Staatssecretaris
voor haar antwoorden. Eigenlijk vond ik er één heel aardig. We kijken nu bij de algoritmes
vooral naar het zwarte punt, de dingen die niet goed gaan. In de brief gaf ze echter
ook aan dat er punten zijn waardoor algoritmes de dienstverlening zouden kunnen verbeteren.
Ik vond het best moeilijk om daar vanuit de rijksoverheid voorbeelden van te vinden,
maar wellicht heeft ze die wel. Ik weet wel dat die bij gemeentelijke regelingen soms
worden toegepast als het gaat over niet-gebruik. Is daar ook niet een rol in om te
kijken hoe die betere dienstverlening meer gedeeld kan worden? Ziet de Staatssecretaris
daar ook een rol in dat algoritmes ook ten goede van mensen kunnen komen?
De voorzitter:
Dank u wel, meneer Slootweg. Dan is het woord aan mevrouw Bouchallikh, GroenLinks.
Mevrouw Bouchallikh (GroenLinks):
Dank, voorzitter. Dank ook aan de Staatssecretaris en haar team voor de beantwoording
van de vragen. Het feit dat een deel van de vragen van onze commissie veel met elkaar
overlappen, laat volgens mij zien dat we met z'n allen een beetje dezelfde kant op
aan het duwen zijn. Het is fijn dat de Staatssecretaris volgens mij ook aan het meebewegen
is.
Ik sluit me wel graag aan bij het sentiment dat we niet moeten wachten tot er vanuit
de EU regels komen, maar dat we het zo veel mogelijk hier moeten inbedden. Dat was
onder andere de oproep van Volt. Ik hoop dat we in die zin stappen blijven zetten.
Ik heb ook vanuit hier de oproep aan onze eigen overheden: maak alsjeblieft haast.
Het is namelijk een beetje gênant dat op het moment dat we eindelijk iets hebben geregeld,
we moeten wachten op juridische verankering, terwijl we gewoon een gemeenschappelijke
plicht hebben naar de burgers. Ik hoop dat de Staatssecretaris die boodschap ook wil
overdragen.
De voorzitter:
Dank u wel. Dan is het woord aan mevrouw Dekker-Abdulaziz, D66.
Mevrouw Dekker-Abdulaziz (D66):
Dank, voorzitter. Dank inderdaad aan de Staatssecretaris voor het toezeggen dat ze
gaat kijken naar het TikTok-gebruik bij ambtenaren. Ik zou graag van haar willen horen
wanneer ze denkt hiermee klaar te zijn. Voor een beetje haast zouden we dit wellicht
nog in een tweeminutendebat kunnen doen.
Dan mijn andere vraag. Ik had een gemiste vraag over welke acties verder in gang worden
gezet om orde te brengen in de dataverzameldrift van de overheid. Daar heb ik geen
antwoord op gekregen.
Ten slotte ben ik heel blij om te horen dat de Algemene wet bestuursrecht versterkt
wordt om algoritmes transparanter te maken. Daarbij is mijn vraag: wanneer denkt de
Staatssecretaris deze naar de Kamer te sturen?
De voorzitter:
Dank u wel. Dan is het woord aan de heer Rahimi, VVD.
De heer Rahimi (VVD):
Dank u wel, voorzitter. Wij danken de Staatssecretaris uiteraard ook voor de antwoorden.
Het is goed om te horen dat zij een aantal zaken gaat oppakken, waaronder het aanjagen
van zbo's, waterschappen en gemeentes om het in te vullen.
Ik ben ook blij dat ze gaat kijken naar een certificering of een keurmerk. Ik wil
even meegeven dat die certificeringen er in het buitenland al zijn. Het is misschien
handig om daarnaar te kijken.
Ik gaf net al aan dat het heel belangrijk is dat mensen kunnen meekijken en kunnen
acteren, zeker bij de instrumenten die wij als overheid hebben, dus ons instrumentarium.
Het gaat vaak over technische dingen en ik denk dat het van belang is dat de mening
van filosofen, IT'ers, technici en economen is meegenomen. Dit raakt namelijk echt
alles. Ik wil vooropstellen dat we op de goede weg zijn. Dat wil ik echt meegeven
en daarvoor wil ik de Staatssecretaris complimenteren. Het is belangrijk dat we als
overheid op een serieuze en consistente manier verslag uitbrengen over wat we doen,
dus de data die erin gaan en die eruit komen en de conclusies. Laten we daar goed
mee omgaan.
Ik heb nog één laatste vraag; sorry, voorzitter. In het debat werd over de normen
en de kaders aangegeven dat de AP gaat praten met andere toezichthouders. Naar mijn
mening is het zo dat wij de kaders stellen en dat elke toezichthouder daar gehoor
aan geeft, in plaats van dat de AP dat doet.
De voorzitter:
Dank u wel. Mevrouw Kathmann, PvdA.
Mevrouw Kathmann (PvdA):
Ik wil de Staatssecretaris van harte danken voor de beantwoording. Ik ben wel blij
dat het tweeminutendebat is aangevraagd, want dan kunnen we de goede stappen die zijn
gezet nog een beetje verder in de goede richting brengen met moties.
Terwijl wij het hier over ethiek en data hebben, krijg ik ineens het volgende bericht
binnen: «Alle iPhonegebruikers opgelet: er is een wereldwijde datahack gaande op Apple-devices.»
Ik zie ze hier allemaal staan. «Advies: installeer z.s.m. de laatste software-update.»
Ik wil nog wel even doorpakken op de vragen van de VVD over transparantie en bruikbaarheid
voor de burger, want dat is gewoon ongelofelijk belangrijk. Transparantie begint met:
begrijpt iedereen het? Daarom stel ik de concrete vraag of het algoritmeregister voldoet
aan de digitaletoegankelijkheidsvereisten die voor overheidswebsites gelden. Kan de
Staatssecretaris ervoor zorgdragen dat informatie in het register die door andere
overheden wordt verschaft, gecontroleerd wordt op begrijpelijkheid en laagdrempeligheid?
En is de Staatssecretaris bereid om burgers actief te betrekken bij de nadere uitwerking
van het algoritmeregister, bijvoorbeeld door een praktijktoets op effectiviteit?
De voorzitter:
Dank u wel. En misschien toch nog even in alle scherpte: ik had zelf gehoord dat een
aantal mensen nog in afwachting waren van toezeggingen, en dat er niet per definitie
een tweeminutendebat zou worden aangevraagd als er voldoende toezeggingen waren. Als
u wel een tweeminutendebat wenst, is het misschien goed om even concreet te maken
waarover dan.
Mevrouw Kathmann (PvdA):
Ik zou graag nog wat aansporende moties willen indienen op het stukje over het toezicht.
Maar ik hoef niet per se het recht om de eerste spreker te zijn als anderen dat tweeminutendebat
al eerder wilden aanvragen. Mochten anderen het niet willen aanvragen, dan zal ik
het doen, maar ik wil anderen niet het gras voor de voeten wegmaaien.
De voorzitter:
Het is inderdaad goed om dat even scherp te hebben. Ik kijk eerst hoe lang de Staatssecretaris
nodig heeft voor het voorbereiden van de beantwoording. Vijf minuten, hoor ik. Dan
schorsen we voor vijf minuten.
De vergadering wordt van 16.56 uur tot 17.02 uur geschorst.
De voorzitter:
Aan de orde is de tweede termijn van de Staatssecretaris. Er is een aantal vragen
gesteld. Wij kijken vol verwachting naar de Staatssecretaris.
Staatssecretaris Van Huffelen:
Dank u wel. Ik heb altijd de hoop dat ik aan de verwachtingen kan voldoen. Ik ga proberen
het heel snel te doen.
Er was een vraag gesteld door de fractie van DENK over de motie rondom de Awb-besluiten.
De vraag was of we die zouden meenemen. Wij gaan inderdaad onderzoeken hoe we dat
kunnen doen.
Dan de vraag wanneer het onderzoek naar de BRP-algoritmes komt. Dat komt in april.
Het implementatiekader is niet een implementatiekader van de AI Act, want die is nog
niet vastgesteld. Dat zal waarschijnlijk pas aan het eind van het jaar zijn. Ons eigen
implementatiekader willen we in juni aan uw Kamer toesturen.
De heer Slootweg vroeg nog terecht naar voorbeelden over hoe we ...
De voorzitter:
Voordat u verdergaat, heeft u een korte vraag van de heer Van Baarle van DENK.
De heer Van Baarle (DENK):
Om het wel even serieus te nemen: ik heb twee keer schriftelijke vragen gesteld over
het onderzoek naar het discriminerende risicoprofiel in de BRP. In het antwoord op
de schriftelijke vragen stond: u krijgt het in oktober. Daarna werd gezegd: u krijgt
het eind dit jaar. Ik vind het voor de zuiverheid wel belangrijk dat ik u even ter
verantwoording roep met de vraag waarom ik, als er staat dat ik het in oktober krijg,
nu moet horen: het komt in april. Ik vind het heel serieus. Ik vind het spijtig dat
ik het niet wist en dat ik erop moest wachten.
Staatssecretaris Van Huffelen:
Dat is een fair point. Wij laten dit onderzoeken door een externe onderzoeker, die
meer tijd nodig blijkt te hebben om het goed te doen. Dat had ik u ook even kunnen
laten weten, dus dat doe ik de volgende keer proactief. Maar wij nemen het ook ontzettend
serieus, want ik wil net zo goed als u weten wat er nou precies aan de hand is geweest.
Mocht het niet in april komen, wat ik niet hoop, dan zal ik ervoor zorgen dat u dat
vooraf te horen krijgt.
De vraag van de heer Slootweg ging over voorbeelden van hoe je algoritmes positief
kunt laten werken. Denk bijvoorbeeld aan algoritmes die gaan over het niet gebruiken
van voorzieningen. Een mooie toepassing is er bijvoorbeeld in het kader van schulden.
Dat doen wij vanuit de rijksoverheid via de ELSA Labs. We weten ook dat de gemeente
Amsterdam dat doet. Ik ben samen met de Minister voor Armoede aan het werk om daarnaar
te kijken, omdat het een belangrijk onderwerp is.
Dan was er een oproep van mevrouw Bouchallikh om haast te maken. Dat doe ik graag.
Die oproep neem ik mee.
Dan was er een vraag van mevrouw Dekker over wanneer we klaar zijn met het TikTok-onderwerp.
Wij proberen dat natuurlijk te doen binnen de beantwoordingstermijn van de Kamervragen.
Ik hoop niet dat we daar langer voor nodig hebben, maar ergens in de komende weken
zullen we u daar antwoord op geven.
U had ook nog de terechte openstaande vraag over de verzameldrift. Wij hebben als
overheid beschikking over allerlei soorten data. Sterker nog, die hebben wij heel
erg hard nodig. «Verzameldrift» lijkt een beetje alsof wij data aan het verzamelen
zijn voor ons plezier, alsof we dat zomaar doen of doen zonder dat daar nut en noodzaak
voor is. Dat beeld zou ik graag willen bestrijden. Dat laat onverlet dat wij er heel
goed voor moeten zorgen dat, als wij data tot onze beschikking hebben, wij daar heel
zorgvuldig mee omgaan. Daarom hebben we toegezegd dat er data officers zijn. Die zijn
we aan het aannemen. We hebben de Interbestuurlijke Datastrategie, samen met lagere
overheden. En we willen er juist voor zorgen dat we niet data verzamelen om het verzamelen,
maar dat we heel zorgvuldig omgaan met de data waarover we beschikking hebben. Bovendien,
en dat is ook op basis van Europese regelgeving, willen we data zo veel mogelijk ter
beschikking stellen, zodat mensen ermee aan het werk kunnen.
De voorzitter:
Een korte vraag van mevrouw Dekker-Abdulaziz.
Mevrouw Dekker-Abdulaziz (D66):
Ja, heel kort. Het is niet zo dat ik voor de lol de overheid aan het shamen ben. Het
is de Algemene Rekenkamer die constateert dat bijvoorbeeld de politie meer gegevens
verzamelt dan nodig is. Er is dus wel degelijk ergens een verzameldrift bij de overheid.
De vraag is of de Staatssecretaris of medebewindslieden zich hard willen maken voor
het verzamelen van niet te veel gegevens.
Staatssecretaris Van Huffelen:
Dat doe ik natuurlijk graag. Daarom hebben we ook de implementatie van de data officers
en de mensen die werken aan dit soort thema's. Daarom zorgen we ervoor dat het goed
gaat waar data verzameld worden. We hebben er ook toezichthouders voor. Ik maak mij
er dus hard voor. Ik kan niet zeggen dat het er altijd honderd procent toe leidt dat
er niet ergens bij de overheid iemand is die meer data aan het verzamelen is dan nodig.
Maar we doen wel ons uiterste best om de randvoorwaarden daarvoor en het toezicht
daarop goed in te richten.
De heer Rahimi had het nog over de certificering en de EU. Terecht, want dat is onderdeel
van de AI Act, de algoritmeverordening. Dat gaat over het certificeren van algoritmes
en het ervoor zorgen dat je de hoogrisicoalgoritmes pas mag gebruiken wanneer de certificering
aan de orde is.
U vroeg nog of het zo is dat ik, of wij gezamenlijk, de normen doen en de toezichthouders
de uitvoering daarvan. Dat is precies wat het is. Wij zijn een beetje aan het vooruitkijken.
We zien dat er heel veel Europese verordeningen op ons afkomen, heel veel Europese
regulering. Daarbij spelen de toezichthouders in verschillende vormen en maten een
rol. Daarom hebben de toezichthouders zich op dit onderwerp verzameld. Ik heb daar
– dat vertelde ik al – met hen overleg over. Het gaat over toezicht op de uitvoering
van digitale wet- en regelgeving. Dan vind ik het belangrijk dat we niet alleen kijken
hoe we dat toezicht gaan invullen, maar ook hoe we ervoor gaan zorgen dat we het makkelijker
maken voor organisaties, overheden of bedrijfsleven om compliant te zijn. De les die
we hebben geleerd vanuit de AVG is dat het helemaal niet zo makkelijk bleek om te
bedenken: hoe kan ik compliant zijn, hoe kan ik voldoen aan de vereisten en hoe kan
ik het goed inrichten? Daar ga ik samen met de toezichthouders aan werken.
Dan nog even over de toegankelijkheid – dat is een vraag van mevrouw Kathmann – van
het register. Binnenkort gaat ons register voldoen aan de zogenaamde A-status. Dat
is de norm die we onszelf hebben opgelegd. Dat is nu nog niet honderd procent zo,
maar dat doen we wel. Dan zorgen we ervoor dat we binnen een maand, zo is de bedoeling,
aan die vereisten voldoen. Daar hebben we dus nog twee weken voor. We betrekken burgers
er ook bij. We maken nu een ronde langs bibliotheken om aan burgers te vragen of zij
input kunnen leveren voor het verbeteren van het register, voor zover zij vinden dat
het onvoldoende toegankelijk is. Dat doen we dus allebei.
Dat was het, voorzitter.
De voorzitter:
Dank u wel. Ik kijk heel even rond om te zien of dit inderdaad alle vragen waren.
Dan ga ik, voor ik de gewetensvraag stel aan de collega's of er nog een tweeminutendebat
nodig is, even kijken naar de toezeggingenlijst. Dat is een hele lijst, dus we hebben
in ieder geval ons best gedaan. De toezeggingen zijn als volgt. Ik verzoek u om even
goed mee te luisteren of dit goed is. De eerste toezegging is:
− De Staatssecretaris zal bij de vormgeving van het nieuwe onderzoek naar de motie op
stuk nr. 21, ook wel bekend als de motie-Marijnissen/Klaver, geen onomkeerbare stappen
maken en eerst wachten op het voorstel van de rapporteurs op dit onderwerp ten aanzien
van welke organisatie een onderzoek zou moeten uitvoeren. Dat is naar aanleiding van
een interruptiedebat met mevrouw Leijten.
Ik kijk even rond. Klopt dat? Ja.
Dan de tweede toezegging:
− De Staatssecretaris zal de Kamer informeren over het mogelijk verplichtende karakter
van het algoritmeregister, vooruitlopend op de AI Act.
Ik kijk heel even naar de Staatssecretaris. Kan daar nog een datummoment aan toegevoegd
worden?
Staatssecretaris Van Huffelen:
Ergens voor de zomer. We hebben nog even tijd nodig.
De voorzitter:
Voor de zomer? Dan voegen we dat toe.
Dan de derde toezegging:
− De Kamer ontvangt spoedig het wetsvoorstel Versterking waarborgfunctie Awb.
Staatssecretaris Van Huffelen:
Dat is niet mijn wetsvoorstel, dus daar kan ik niks over zeggen.
De voorzitter:
Dan schrappen we deze toezegging. Daar zijn afspraken over gemaakt in een ander debat,
dus dat doen we dan niet hier. Anders wordt het verwarrend. Dan zouden we deze Staatssecretaris
houden aan iets wat zij niet kan waarmaken.
Dan de nieuwe nummer drie:
− De Staatssecretaris zal de Kamer informeren over de uitkomst van het gesprek met de
heer Krijger. Dat is een toezegging aan mevrouw Kathmann.
Dan de volgende:
− De Staatssecretaris zal de Kamer informeren over de uitkomst van de gesprekken met
de toezichthouders met betrekking tot de samenwerking van toezichthouders op het toezicht
houden op algoritmes in de doorzettingsmacht van de AP.
Staatssecretaris Van Huffelen:
In brede zin over digitalisering, dus het wordt wel iets breder dan dat.
De voorzitter:
In brede zin op het gebied van digitalisering. Dat was een toezegging aan mevrouw
Leijten en mevrouw Kathmann.
Dan de volgende toezegging:
− De Staatssecretaris zal voor juni het implementatiekader van het gebruik van algoritmes
naar de Kamer sturen.
Staatssecretaris Van Huffelen:
Die toezegging is al eerder gedaan.
De voorzitter:
Vandaar dat we er nu ook niet een nieuwe naam aan toegevoegd hebben. Dit is namelijk
een hernieuwde toezegging.
Dan:
− De Staatssecretaris zal de Kamer spoedig informeren over het gebruik van TikTok door
ambtenaren bij de overheid. Dat is naar aanleiding van een verzoek van mevrouw Dekker-Abdulaziz.
Dat gaat via de beantwoording van de Kamervragen, als ik net goed geluisterd heb.
Staatssecretaris Van Huffelen:
Dat lijkt mij het meest logisch, als iemand daar Kamervragen over stelt.
De voorzitter:
Ja.
Dan de volgende toezegging:
− De Staatssecretaris zal de Kamer informeren over de protocollen voor het handelen
bij mogelijke discriminatie bij algoritmes. Dat is een toezegging aan de heer Van
Baarle.
Staatssecretaris Van Huffelen:
Eigenlijk gaat het niet om het informeren. We hebben gezegd dat we zo'n protocol willen
gaan maken. Ik denk dat dat een zuiverdere ...
De voorzitter:
Oké, dus er komt een protocol. Dan is de vraag wel of er een verwachting is qua termijn.
Staatssecretaris Van Huffelen:
Ergens in het voorjaar.
De voorzitter:
Dit voorjaar. Oké. Dan gaan we die toezegging iets herformuleren en voegen we de tijdsindicatie
toe.
Dan:
− De Staatssecretaris zal de Kamer in april informeren over het onderzoek naar discriminerende
risicoprofielen in de BRP. Dat is ook naar aanleiding van een verzoek van de heer
Van Baarle.
Daarbij was de aanvulling volgens mij: mocht het later worden, dan worden we daar
in ieder geval over geïnformeerd.
Staatssecretaris Van Huffelen:
Dan krijgt u keurig een brief van mij.
De voorzitter:
Misschien moeten we dat, gelet op het verleden, toch nog even specifiek markeren.
Dan kijk ik even rond: is er, gelet op al deze toezeggingen, nog behoefte aan een
tweeminutendebat? Ik zie een aantal leden knikken. Mevrouw Dekker-Abdulaziz zit als
eerste in de rij. Het is gebruikelijk om dat lid dan als eerste aanvrager te noteren.
Staatssecretaris Van Huffelen:
Waarover?
De voorzitter:
De vraag is inderdaad: waarover?
Mevrouw Dekker-Abdulaziz (D66):
Op zich is TikTok redelijk gecoverd, maar just in case. Maar eigenlijk gaat het niet
daarover. We hebben nog een stukje datahonger dat we willen tackelen.
De voorzitter:
Mevrouw Kathmann heeft misschien een ander onderwerp. Ik denk dat het goed is om dat
te weten, zodat de Staatssecretaris en de ambtenaren zich daarop kunnen voorbereiden.
Misschien is het ook voor de collega's goed om dat te weten.
Mevrouw Kathmann (PvdA):
Dat zit vooral op dat stuk van het toezicht. Het is voor mij nog steeds een beetje
vaag hoe we dat gaan inrichten: wat is het mandaat en wat zijn de escalatieladders?
Daar is wel een soort toezegging over gedaan, maar ik zou daar toch graag nog wat
concreets over meegeven via een motie.
De voorzitter:
De reden waarom we hierop doorvragen – misschien is het ook voor de leden goed om
dat te weten – is dat we met elkaar een beetje aan het kijken zijn hoe we in het debat
qua toezeggingen recht doen aan elkaars overwegingen. Ik denk dat de Staatssecretaris
geprobeerd heeft om dat zo ruimhartig mogelijk te doen. Dan is het ook altijd goed
om met elkaar te wisselen wat er nog ontbreekt en om dat ook aan de voorkant scherp
te hebben. Dat hebben we bij dezen gedaan. We geven dit door aan de Griffie plenair.
Dan wordt het te zijner tijd ingepland, met als eerste spreker mevrouw Dekker-Abdulaziz.
Dank u wel. We zijn bij dezen aan het einde gekomen, met dank voor eenieders geduld,
want we zijn een kwartiertje uitgelopen. Ik dank de leden. Ik dank de Staatssecretaris
en haar ambtenaren en uiteraard de mensen die op de publieke tribune zijn blijven
zitten en de kijkers thuis.
Sluiting 17.14 uur.
Ondertekenaars
-
Eerste ondertekenaar
R.J. Kamminga, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
L. Boeve , griffier
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.