Brief regering : Reactie op het onderzoeksrapport van Amnesty International over ‘Xenofobe Machines’
33 826 Mensenrechten in Nederland
26 643
Informatie- en communicatietechnologie (ICT)
Nr. 45
BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 4 juli 2022
In 2021 verscheen het onderzoeksrapport «Xenofobe Machines» van Amnesty International.
Het rapport behandelt mensenrechtenrisico’s bij het gebruik van algoritmische besluitvormingssystemen
door de overheid. De directe aanleiding is de toeslagenaffaire. Het kabinet heeft
in zijn reactie op het rapport «Ongekend onrecht» acties aangekondigd om te voorkomen
dat zulk onrecht nog eens gebeurt. Die acties richten zich bijvoorbeeld op de rol
van uitvoeringsorganisaties en de hardheid van besluiten die zij kunnen nemen, op
het datagebruik en de IT-voorzieningen bij de overheid, op de toegang voor burgers
tot het recht en op het voorkomen van discriminatie door de overheid.1
Hoewel veel verschillende factoren tot de toeslagenaffaire hebben geleid, richten
de schrijvers van dit Amnesty-rapport zich vooral op de rol van algoritmen en doen
zij verschillende aanbevelingen om het gebruik van algoritmen bij besluitvormingsprocessen
in de publieke sector in lijn te brengen met mensenrechten. Amnesty speelt wereldwijd
een fundamentele rol in de bescherming van mensenrechten, iets wat mij aan het hart
gaat. Ik waardeer dit rapport dan ook: algoritmen spelen een steeds grotere rol in
onze samenleving en bij de overheid. Dit kabinet wil ervoor zorgen dat algoritmen
met respect voor mensenrechten worden ontwikkeld en gebruikt. In het coalitieakkoord
(Bijlage bij Kamerstuk 35 788, nr. 77) heeft het kabinet aangegeven wettelijk te gaan regelen dat algoritmen worden gecontroleerd
op transparantie, discriminatie en willekeur en te willen zorgen voor effectief toezicht
op algoritmen, onder meer door de oprichting van een algoritmetoezichthouder. In brede
zin is er veel werk te verzetten op het terrein van de digitale overheid, in Nederland
en in de EU. Recentelijk heb ik mijn hoofdlijnenbrief naar uw Kamer gestuurd waarin
ik de speerpunten voor het digitaliseringsbeleid van de komende jaren uiteen heb gezet.
Hieronder volgt, mede namens de Minister voor Rechtsbescherming en de Staatssecretaris
van Financiën (Toeslagen en Douane), mijn reactie op de aanbevelingen van Amnesty.
Bij aanbeveling 1 zal ik in het algemeen ingaan op het kader rond algoritmische besluitvormingssystemen.
Daarna volgt een reactie op de specifieke aanbevelingen inzake transparantie, toezicht
en rechtsmiddelen.
1. Bescherm de mensenrechten bij het gebruik van algoritmische besluitvormingssystemen
regeringen moeten een kader tot stand brengen dat a) mensenrechtenschendingen voorkomt
bij het gebruik van algoritmische besluitvormingssystemen, b) monitoring- en toezichtmechanismen
instelt als waarborg, c) degenen die verantwoordelijk zijn voor schendingen ter verantwoording
roept, en d) voorziet in effectieve rechtsmiddelen voor individuen en groepen wier
rechten zijn geschonden.
In haar onderzoek richt Amnesty zich op algoritmische systemen en algoritmische besluitvormingssystemen.2 Overheidshandelen moet binnen de kaders van de mensenrechten plaats vinden, ook als
gebruik wordt gemaakt van algoritmische besluitvormingssystemen. Dat staat voorop.
Wetgeving
Om mensenrechten te beschermen, moeten overheden zich aan de huidige wet- en regelgeving
houden en wordt nieuwe wet- en regelgeving voorbereid die ook op algoritmische besluitvormingssystemen
van toepassing is.
Er is al een kader dat algoritmische besluitvorming reguleert: de Grondwet en de fundamentele
mensenrechten vereisen dat een inbreuk op een recht alleen is toegelaten indien deze
wettelijk is geregeld en noodzakelijk en proportioneel is. Domein-specifieke wetgeving
reguleert de bevoegdheid waaruit besluitvorming volgt; het bestuursprocesrecht stelt
regels aan besluitvorming, zoals de motivering ervan en hoor en wederhoor. De privacy-
en gegevensbeschermingswetgeving (waaronder de Algemene Verordening Gegevensbescherming
(AVG)) stelt regels aan het gebruik van persoonsgegevens en geautomatiseerde besluitvorming
met behulp van persoonsgegevens. Het non-discriminatierecht verbiedt het maken van
een (ongerechtvaardigd) onderscheid tussen mensen.
Het moet vanzelfsprekend zijn dat de overheid volgens deze juridische kaders werkt,
ook bij het gebruik van algoritmen. In elke fase van de levenscyclus van algoritmische
besluitvormingssystemen (ontwerpen, bouwen, testen, gebruiken en monitoren) moet aandacht
zijn voor de risico’s voor mensenrechten. Dat is belangrijk, omdat er mensenrechtelijke
risico’s kunnen kleven aan techniek die niet goed werkt, niet goed gebruikt wordt
of moeilijk te doorgronden is.3 Een algoritme dat niet goed werkt of verkeerd gebruikt wordt, kan bijvoorbeeld discriminerende
vooroordelen bevatten die onvoldoende worden herkend.
Specifiek voor AI-systemen met een hoog risico voor mensenrechten, de gezondheid en
veiligheid is er wetgeving in voorbereiding die met name de ontwikkelingsfase van
deze systemen verder reguleert. Deze conceptwetgeving is in belangrijke mate van toepassing
op algoritmische besluitvormingssystemen bij de overheid. De Europese Commissie heeft
in 2021 de AI-verordening voorgesteld en Nederland draagt met de andere EU-lidstaten
bij aan de totstandkoming ervan. Deze concept verordening verbiedt een aantal AI-toepassingen
die onaanvaardbare risico’s voor mensenrechten met zich meebrengt. Voor AI-systemen
met een hoog risico is voorzien in een set eisen aan de ontwikkeling en ingebruikname
van deze systemen waaraan aantoonbaar moet zijn voldaan (waarin mensenrechten worden
meegenomen). Zo moet een risicoanalyse worden gedaan en worden onder andere eisen
gesteld aan de datakwaliteit; de accuraatheid van het systeem; moet het systeem voldoende
transparant zijn voor degene die het toepast en moet er adequaat menselijk toezicht
op mogelijk zijn. Ook de accuratesse, de robuustheid tegen fouten en de beveiliging
moeten in orde zijn. Met een beoordeling vooraf moeten aanbieders van zulke hoog-risico
toepassingen aantonen dat het AI-systeem werkt in overeenstemming met deze eisen.
Voor andere specifieke AI-systemen (emotieherkenning, deepfakes, bots) zijn aanvullende
transparantieverplichtingen opgenomen.
Ook werkt de Europese Commissie aan andere wetsvoorstellen, zoals de Digital Services
Act, en een herziening van het productaansprakelijkheidsrecht, die verschillende aspecten
van de digitale samenleving, inclusief algoritmen, reguleren. Het uitgangspunt hierbij
is de bescherming van mensenrechten bij de digitale transitie.
Naast de EU werkt ook de Raad van Europa aan een juridisch raamwerk voor AI, specifiek
om mensenrechten en de democratische rechtsstaat te beschermen. Hierin wordt naar
het zich laat aanzien extra aandacht besteed aan een mensenrechten impact assessment
en aan het gebruik van algoritmische besluitvormingssystemen bij de overheid. Ook
hier speelt Nederland een actieve rol. De onderhandelingen zijn gestart. Aan de Kamer
zal ik een zo volledig mogelijk beeld geven van de mogelijke inhoud van het ontwerpverdrag.
Hoewel er in nationaal en Europees verband het nodige loopt op wetgevende terrein,
blijft het kabinet alert op de toekomstbestendigheid van de juridische kaders in relatie
tot algoritmen. Na de zomer volgt een reactie op recent AI-onderzoek van de Wetenschappelijke
Raad voor het Regeringsbeleid hierover.4
Versterking van de naleving
De beleidsmatige en juridische kaders moeten niet alleen toekomstbestendig zijn, maar
ook in de praktijk worden nageleefd.
Het bewustzijn van de ethische en juridische kaders met betrekking tot de inzet van
algoritmen is bij uitvoeringsorganisaties dus van groot belang. In het geval van verwerking
van persoonsgegevens moet een gegevensbeschermingseffectberoordeling (DPIA/GEB) worden
gedaan als er een hoog risico bestaat voor de rechten en vrijheden van natuurlijke
personen en bij de totstandkoming van wetgeving. Die GEB omvat ook een discriminatietoets.
De overheid moet van de naleving van het gegevensbeschermingsrecht prioriteit maken.
Momenteel doet het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) van het
Ministerie van Justitie en Veiligheid daarom onderzoek naar manieren om die naleving
te verbeteren. De verwachting is dat dit onderzoek in het tweede kwartaal van 2022
is afgerond.5
Om wetten en regels beter toepasbaar te maken, zijn er daarnaast diverse hulpmiddelen
en instrumenten ontwikkeld, zoals de Richtlijnen voor het gebruik van algoritmen door
overheden, de Handreiking non-discriminatie by design om bias en non-discriminatie
vroegtijdig te herkennen, een Impactassessment Mensenrechten en Algoritmen (IAMA)
die risico’s voor mensenrechten in kaart brengt en een Code Goed Digitaal Bestuur
met beginselen die richting geeft aan een verantwoorde inzet van technologie. Omdat
er inmiddels diverse toetsingsinstrumenten en werkmethoden zijn ontwikkeld, wil ik
kijken naar het gebruik ervan in de praktijk en of/waar stroomlijning aan de orde
kan zijn. Ik heb uw Kamer toegezegd te onderzoeken of «non-discriminatie by design»
actief verspreid kan worden,6 en of het IAMA verplicht kan worden.7 In de zomer zal ik uw Kamer informeren over de samenloop en praktische uitvoering
van deze instrumenten bij de overheid.
Het Rathenau Instituut heeft onderzocht hoe uitvoeringsorganisaties met AI, specifiek
pilots met algoritmische profilerende systemen, omgaan en wat hun werkwijze nodig
heeft om beter mensenrechten te beschermen. Dit is van nut voor het Platform Gemeenten
en Mensenrechten, waarin lokale praktijken worden uitgewisseld op het snijvlak van
mensenrechten en lokaal beleid en uitvoering. Tevens werkt het bureau Hooghiemstra
en Partners in opdracht van BZK aan een werkmethode om de kwaliteit van het gebruik
van algoritmen bij de overheid beter te beoordelen waardoor de interne controle en
toezicht versterkt worden. De resultaten daarvan zal ik voor het zomerreces naar de
Kamer sturen.
Met ontwikkelingen als »Calculemus-FLINT en Wendbaar wetgeven wordt door verschillende
ministeries samengewerkt aan werkmethoden en instrumenten die bijdragen aan zorgvuldige
vertaling van wetten naar algoritmen en mogelijkheden voor uitlegbaarheid van geautomatiseerd
genomen besluiten. Daarnaast is recent een start gemaakt met een centrale vindplaats
voor open regels,8 zodat burgers dit vertaalproces beter kunnen controleren.
Voor toezicht, verantwoording en rechtsmiddelen verwijs ik u naar de reactie op aanbeveling
6, 7 en 9.
2. Geen black box-systemen in de publieke sector
regeringen moeten afzien van het gebruik van black box-systemen in risicovolle situaties,
zoals bij de opsporing van fraude in de sociale zekerheid.
Onder Black box-systemen verstaan we AI-systemen die zo complex zijn dat niet of niet
volledig te reconstrueren is, hoe een uitkomst of resultaat tot stand is gekomen.
Om die reden moet de overheid terughoudend zijn met het gebruik van black box systemen,
zeker in genoemde risicovolle situaties.
Overheidsbesluiten moeten zorgvuldig tot stand komen en adequaat worden gemotiveerd.
Wanneer algoritmen worden ingezet, is dat niet anders. Er is ook overheidsoptreden
dat niet (direct) tot een besluit leidt of anderszins rechtsgevolgen heeft. Het gaat
dan veelal om feitelijk handelen en onderzoek. Ook dit handelen is genormeerd. Naast
op de mensenrechten en de algemene beginselen van behoorlijk bestuur kan in het bijzonder
ook worden gewezen op de AVG, die de verwerking van persoonsgegevens normeert.
Het kabinet heeft al langer als uitgangspunt dat overheidsorganisaties in beginsel
geen algoritmen hanteren die te complex zijn om redelijkerwijs te kunnen worden uitgelegd,
in elk geval niet indien het gebruik van algoritmen rechtsgevolgen of een aanmerkelijke
impact heeft op burgers, bedrijven of (groepen in) de samenleving. Dit uitgangspunt
is neergelegd in de richtlijnen voor het gebruik van algoritmen door overheden.9
Verder verwijs ik naar aanbeveling 1 en het daarin beschreven gebruik van instrumenten
ter ondersteuning en de recent voorgestelde AI-verordening die aan hoog-risico systemen
diverse eisen stelt om schendingen van mensenrechten te voorkomen.
3. Regulering van zelflerende algoritmen voor impactvolle besluitvorming
regeringen moeten de inzet verbieden van zelflerende algoritmen tijdens de gebruiksfase
van algoritmische besluitvormingssystemen in de publieke sector als het gaat om a)
besluitvorming met rechtsgevolgen, b) besluitvorming en handelingen die de rechten
en vrijheden van individuen aantasten, en c) besluitvorming en handelingen die een
grote impact hebben op de samenleving.
Zoals hiervoor (onder aanbeveling 1) uiteengezet bieden de huidige juridisch kaders
al de nodige waarborgen voor een verantwoorde inzet van algoritmen bij overheidsbesluitvorming
en zet ik in op hulpmiddelen en nieuwe regels die moeten borgen dat algoritmische
systemen bij hoge risico’s voor de rechten en vrijheden, voordat ze in gebruik worden
genomen, zorgvuldig worden getoetst.
Het is goed om te kijken naar het onderscheid tussen de gebruiksfase en ontwikkelfase.
Algoritmen die machinaal leren zonder menselijk toezicht of automatisch herijkt worden
op basis van hun eigen uitvoer (feedback loop) hebben extra aandacht en menselijke controle nodig. Daarom is het goed dat de AI-verordening
eisen stelt aan de ontwikkeling van AI-systemen met een hoog risico, en dat deze systemen
vervolgens blijvend gecontroleerd worden als er aanpassingen plaatsvinden in de werking
van het systeem. Daarnaast moet het functioneren bijgehouden worden en is menselijke
controle nodig. Ook kan het gebruik van impact assessments hierin helpen.
In bepaalde gevallen kan een verbod aan de orde zijn. De voorgenomen AI-Act kent bijvoorbeeld
een verbod op social scoring: Systemen die namens de overheid op grote schaal de betrouwbaarheid van burgers op
basis van hun gedrag evalueren.
4. Openbaar register voor algoritmische besluitvormingssystemen
regeringen dienen een zo groot mogelijke transparantie te bieden met betrekking tot
het gebruik van algoritmische besluitvormingssystemen in de publieke sector, door
een openbaar register in te stellen dat gedetailleerde en uitgebreide informatie bevat
over het gebruik van algoritmische besluitvormingssystemen in de publieke sector.
Het kabinet vindt transparantie over het gebruik van algoritmische besluitvormingssystemen
in de publieke sector van groot belang omdat dit het publiek en het parlement beter
in staat stelt om te controleren hoe de overheid werkt. Daarbij kan publieksvoorlichting
een rol spelen,10 en het gebruik van algoritmeregisters.
De Tweede Kamer heeft moties aangenomen voor het invoeren van een algoritmeregister
door overheden,11 en om deze ook verplicht te stellen.12 Om aan deze wens tegemoet te komen wil ik nationaal al aan de slag met een algoritmeregister.
Ik maak daarbij dankbaar gebruik van ervaringen met recent opgezette bestaande algoritmeregisters
(zoals die van Amsterdam, Utrecht en Rotterdam). Met de CIO’s van de Rijksdienst heb
ik afgesproken dat zij beginnen met het in het kaart brengen van hun algoritmen en
maak ik met medeoverheden en uitvoeringsorganisaties afspraken over eenduidige registratie
van algoritmen. Op de juridische en beleidsmatige keuzes die hierbij spelen wil ik
in de zomer terugkomen.
Een verplicht register voor algoritmische systemen moet namelijk bij wet geregeld worden, en die
verplichting moet bezien worden in relatie tot de Europese AI-verordening, in het
bijzonder de voorgestelde rechtstreeks werkende verplichting om informatie over AI-systemen
op te nemen in een EU-database. Deze verplichting is van toepassing op de leveranciers
van de hoog-risico systemen genoemd in Bijlage III van de verordening. Algoritmische
besluitvormingssystemen die worden ingezet op overheidsterreinen, zoals rechtshandhaving
en (ter bepaling van toegang tot) publieke diensten, vallen hieronder voor zover zij
beantwoorden aan de in de verordening opgenomen definitie van AI. Deze verplichting
geldt alleen voor de aanbieders van deze systemen. Hoewel overheden zelf ook hoog
risico AI-systemen ontwikkelen (en dan dus ook als aanbieder worden aangemerkt), zal
het dus niet altijd de overheid zijn die registreert. In EU-verband zet Nederland
zich er dan ook voor in dat ook gebruikers registreren dat zij gebruik maken van een
hoog-risico systeem en dat aan burgers melden, Zo is niet alleen duidelijk welke hoog-risico
systemen ontwikkeld zijn, maar ook waar ze worden gebruikt.
Mijn inzet is dat het voor burgers kenbaar moet zijn hoe de overheid algoritmische
besluitvormingssystemen gebruikt, zeker als ze met die besluiten geconfronteerd worden.
Registers kunnen daar een belangrijke rol in spelen.
5. Transparantie bij (semi-)geautomatiseerde besluitvormingssystemen
regeringen dienen volledig transparant te zijn over algoritmische besluitvormingssystemen
en de betrokken mensen zinvolle informatie te verstrekken over de onderliggende logica,
het belang en de verwachte gevolgen van beslissingen, zelfs indien de besluitvorming
niet volledig geautomatiseerd is, en ongeacht de mate van menselijke betrokkenheid
bij het besluitvormingsproces.
Zoals aangegeven in een eerdere brief over transparantie van algoritme gebruik door
de overheid bestaan er verschillende transparantieverplichtingen, die voortvloeien
uit het bestuursrecht, de privacywetgeving, en uit de regels rond de open overheid.13 Daarbovenop geldt beleid over publieksvoorlichting over data-analyses.14
Bestuursorganen moeten besluiten steeds deugdelijk motiveren. Dit is niet anders indien
die besluiten geheel of gedeeltelijk geautomatiseerd zijn genomen. Het is van belang
dat bij geautomatiseerd genomen besluiten inzicht kan worden gegeven in de algoritmen
(beslis- en rekenregels) die aan het besluit ten grondslag liggen. Ontwikkelingen
als Calculemus-FLINT en Wendbaar wetgeven, die hiervoor onder «versterking van de
naleving» genoemd zijn, kunnen hieraan bijdragen.
Als ook persoonsgegevens worden verwerkt moet de overheid aan de transparantie eisen
uit de AVG voldoen, en als deze verwerking het karakter van geautomatiseerde besluitvorming
heeft, moet zij de betrokkene daarover informeren, en nuttige informatie verschaffen
over de onderliggende logica.
Op grond van de Wet open overheid kan het geboden zijn om algoritmen die de overheid
gebruikt, openbaar te maken, maar openbaarmaking kan achterwege blijven als sprake
is van een of meer in die wet genoemde weigeringsgronden, zoals nationale veiligheid.
Er kunnen redenen zijn om het gebruikte algoritme zelf, of informatie over de werking
hiervan, niet (geheel) of slechts beperkt openbaar te maken. Te denken valt aan situaties
waarin de geboden transparantie kan leiden tot calculerend gedrag (gaming the system), bijvoorbeeld het frauduleus opzoeken van drempelwaardes. De mate van te bieden
transparantie moet in die gevallen afgewogen worden tegen het risico op misbruik van
deze informatie. Deze afweging moet leiden tot een beargumenteerde keuze om de te
verstrekken informatie in te perken, door deze bijvoorbeeld op een hoger abstractie-
of aggregatieniveau te publiceren. Ook in die gevallen is de overheid uiteraard gebonden
aan de mensenrechten en aan wetgeving zoals de AVG en moet in voorkomende gevallen
wel inzage gegeven worden aan de rechter wanneer die een besluit toetst. Ook aan de
(sectorale) toezichthouder dient openheid van zaken gegeven te worden.
De in aanbeveling 1 aangehaalde AI-verordening verplicht aanbieders van hoog-risico
AI-systemen die systemen voldoende volgbaar te maken. Dit zou uiteindelijk andere
vormen van transparantie ten goede moeten komen. In de Raad van Europa is speciale
aandacht voor de transparantie van algoritmische besluitvormingssystemen bij de overheid.
6. Beoordeling van het effect op de mensenrechten
regeringen moeten een verplichte en bindende mensenrechtentoets invoeren bij het gebruik
van algoritmische besluitvormingssystemen in de publieke sector, ook wanneer deze
systemen worden gebruikt door wetshandhavingsinstanties. De mensenrechtentoets moet
worden uitgevoerd tijdens de ontwerp-, ontwikkelings-, gebruiks- en evaluatiefase
van algoritmische besluitvormingssystemen.
Het effect op alle relevante mensenrechten, met inbegrip van sociale en economische
rechten, moet vakkundig worden beoordeeld. Bij het proces moeten relevante belanghebbenden
worden betrokken, waaronder onafhankelijke mensenrechtendeskundigen, toezichthouders,
mensen uit potentieel getroffen, gemarginaliseerde en/of achtergestelde gemeenschappen,
en technische deskundigen.
Er vinden verschillende toetsen van het effect op mensenrechten plaats bij het gebruik
van algoritmen in de publieke sector.
In de eerste plaats is er de wetgevende toets: overheidsoptreden vindt immers plaats
op basis van wettelijke bevoegdheden die getoetst worden aan mensenrechten. Het Integraal
afwegingskader voor beleid en regelgeving (IAK) biedt beleidsmakers en wetgevingsjuristen
de kwaliteitseisen waaraan voorgenomen beleid en regelgeving moeten voldoen. In het
bijzonder moeten hier worden genoemd de «Model DPIA Rijksdienst» en de onlangs geactualiseerde
Handreiking constitutionele toetsing vastgesteld door de Minister van Binnenlandse
Zaken en Koninkrijksrelaties die aan uw Kamer is toegestuurd.15
Voor de ontwikkeling en het gebruik van algoritmische systemen bestaan inmiddels diverse
verplichte en vrijwillige toetsingskaders, zoals de verplichte DPIA/GEB op grond van
de AVG (indien bij algoritmische systemen persoonsgegevens worden verwerkt) en de
risicoanalyse uit de voorgestelde AI-verordening. In de Raad van Europa wordt gesproken
over een verdrag met als mogelijk element een mensenrechten impact assessment. Hoewel
de DPIA verplicht is, zijn nog niet al deze instrumenten af of onvoldoende in gebruik,
en we moeten ervoor zorgen dat er duidelijkheid bestaat in welke gevallen welk instrument
wordt ingezet en dat zij een vaste plek krijgen in onze werkprocessen. Algoritmische
besluitvormingssystemen moeten worden getoetst op hun effect op mensenrechten.
In de reactie op aanbeveling 1 is daarop ingegaan en heb ik aangegeven in de zomer
terug te komen op de samenloop van deze instrumenten en of stroomlijning en aanvulling
nodig is.16
7. Alomvattend toezicht op de mensenrechten
regeringen dienen alomvattende en onafhankelijke mechanismen op te zetten voor mensenrechtentoezicht
op het gebruik van algoritmische besluitvormingssystemen, waarbij toezicht wordt gehouden
op de naleving van zowel burger- en politieke rechten als sociale en economische rechten,
zodat de verantwoordingsmechanismen worden versterkt en de mensenrechten beter beschermd.
Het toezichtsorgaan dient het mandaat, de bevoegdheden en de capaciteit te krijgen
om toe te zien op de bescherming van de mensenrechten bij het gebruik van algoritmische
besluitvormingssystemen in de publieke sector. Zij dient richtsnoeren uit te kunnen
vaardigen, en ontwerpers, ontwikkelaars en gebruikers ter verantwoording te kunnen
roepen in bindende besluiten.
Om toezicht op algoritmen te verbeteren wordt het bestaande nationale toezichtlandschap
op het gebied van algoritmen geëvalueerd, werkt dit kabinet aan een aparte algoritmetoezichthouder,
en wordt in EU-verband gewerkt aan verbeterd toezicht in de AI-verordening.
Als bij algoritmen gebruik wordt gemaakt van persoonsgegevens houdt de Autoriteit
Persoonsgegevens daar toezicht op, en op het effect van die verwerking op de vrijheden
en mensenrechten. Het College voor de Rechten van de Mens beschermt, belicht en bevordert
de mensenrechten in Nederland, onder andere door onderzoek, advies en voorlichting.
Zo heeft het College bijvoorbeeld onderzoek gedaan naar (semi-)geautomatiseerde besluitvorming
bij gemeenten en mensenrechten en een toetsingskader opgesteld voor het gebruik van
bijvoorbeeld nationaliteit in risicoprofielen.17
Het kabinet heeft in het coalitieakkoord aangegeven dat er een algoritmetoezichthouder
wordt opgericht. Op dit moment wordt gewerkt aan de oprichting daarvan, waarbij onder
meer wordt gekeken naar de taken en inrichting. Deze toezichthouder wordt ondergebracht
bij de Autoriteit Persoonsgegevens. Daarnaast laat ik een onderzoek uitvoeren naar
een werkmethode waarmee uitvoeringsorganisaties die algoritmen gebruiken in hun processen,
zelf kwaliteitsmechanismen kunnen inbouwen in het proces van ontwikkeling en gebruik
van die algoritmen, en aan de hand daarvan inzicht kunnen bieden in (de werking van)
die algoritmen. Meer informatie over de toezichthouder en over het onderzoek zal ik
in de zomer naar uw Kamer sturen. Eind 2022 is bovendien een vervolg evaluatie gepland
voor het onderzoek «Toezicht op het gebruik van algoritmen door de overheid,» waarin
we kijken of de versterkingsacties die op basis van het oorspronkelijke onderzoek
zijn aangekondigd, voldoende effect hebben.
Ook in de voorgestelde AI-verordening wordt een voorstel gedaan voor toezicht op AI-systemen.
Zo houden sectorale toezichthouders toezicht op de conformiteit van de hoog-risico
systemen binnen hun sector met de eisen uit de AI-verordening die de veiligheid en
de mensenrechten ten goede moeten komen. Daarnaast komt er één coördinerende toezichthouder
die de naleving van de verordening moet bevorderen.
8. Geen profilering op basis van ras of etnische afkomst
regeringen moeten een duidelijk, ondubbelzinnig en juridisch bindend verbod instellen
op het gebruik van gegevens betreffende nationaliteit en etniciteit, of proxy’s daarvan,
in risicoprofilering voor wetshandhavingsdoeleinden bij het opsporen van potentiële
wetsovertreders of mogelijke verdachten van strafbare feiten of fraude.
Discriminatie is onacceptabel en verboden. Het non-discriminatiebeginsel uit het artikel
1 van onze Grondwet is daar heel helder over. Niet ieder onderscheid is discriminerend.
Als het maken van onderscheid een gerechtvaardigd doel heeft, een passende en geschikte
maatregel is en voldoet aan de eisen van subsidiariteit en proportionaliteit, dan
is sprake van een gerechtvaardigd onderscheid. Deze eisen zijn cumulatief: aan al
deze eisen moet worden voldaan, anders is er wel sprake van discriminatie. Overheidsorganisaties
die gebruik maken van risicoprofielen moeten zich ervan bewust zijn dat dit onderscheid
het risico van discriminatie met zich mee brengt en dat de inzet van dergelijke risicoprofielen
daarom moet voldoen aan de voornoemde eisen.
Dit volgt niet alleen uit artikel 1 van de Grondwet, maar ook uit de AVG en de Wet
politiegegevens en Wet justitiële en strafvorderlijke gegevens. Het College voor de
Rechten van de Mens heeft een mensenrechtelijk toetsingskader voor etnisch profileren
opgesteld. In dit kader staan de juridische maatstaven om te bepalen wanneer risicoprofielen
leiden tot discriminatie op grond van ras (waaronder etniciteit valt) of nationaliteit.
De basis voor dit kader zijn de non-discriminatiebepalingen uit het Europees Verdrag
tot bescherming van de Rechten van de Mens en de fundamentele vrijheden (EVRM) en
de jurisprudentie hierover.
Uw Kamer heb ik toegezegd dat ik het kader zal verspreiden en de toepassing ervan
zal stimuleren. Daartoe is een werkgroep ingericht die de komende maanden zal werken
aan de implementatie.18
9. Verantwoordingsplicht, doeltreffende rechtsmiddelen en verhaalsmogelijkheden
Regeringen moeten zorgen voor een zinvolle verantwoordingsplicht, daadwerkelijke rechtsmiddelen
en verhaalsmogelijkheden voor slachtoffers van mensenrechtenschendingen die verband
houden met het gebruik van algoritmische besluitvormingssystemen. Dit kan bijvoorbeeld
inhouden dat duidelijke, onafhankelijke en toegankelijke verhaalsprocedures worden
ingesteld en dat in de publieke sector functies worden aangewezen die verantwoordelijk
zijn voor het tijdig verhelpen van mensenrechtenschade, onderworpen aan toegankelijke
en doeltreffende beroepsmogelijkheden en rechterlijke toetsing.
Toegang tot een effectief rechtsmiddel is een mensenrecht.
Om rechtsbescherming mogelijk te maken, is het in de eerste plaats nodig dat de transparantie
omtrent algoritmen verder wordt bevorderd om zicht te krijgen op impactvolle algoritmische
besluitvormingssystemen. Zie daarvoor de aanbevelingen inzake algoritmeregisters en
transparantie (aanbeveling 4 en 5 in deze brief). Daarnaast moet beter gemonitord
worden op de kwaliteit van algoritmische besluitvormingssystemen (zie aanbeveling
1).
De democratische rechtstaat eist dat overheidsoptreden genormeerd is en dat daartegen
rechtsbescherming openstaat, of nu algoritmen worden gebruikt of niet. Hoe dat gebeurt
hangt af van of de overheid bestuursrechtelijk of strafrechtelijk optreedt en of sprake
is van een besluit met rechtsgevolgen of van feitelijk optreden.
De civiele rechter kan bij schending van een recht schadevergoeding toekennen (actie
uit onrechtmatige daad). De SyRi-uitspraak laat zien dat de civiele rechter het gebruik
van een systeem kan verbieden bij een onevenredig grote inbreuk op het privéleven
van burgers door de onderliggende wet onverbindend te verklaren.
Het kabinet heeft in november 2020 in reactie op het WODC-onderzoek naar de «modernisering
van het procesrecht in het licht van big data» geconcludeerd dat het onderzoek geen
lacunes in het huidig procesrechtelijk kader constateert. Met name door de ruime mogelijkheden
die het civiele recht biedt, is een gang naar de rechter mogelijk bij de onrechtmatige
inzet van data-analyses en algoritmische besluitvormingssystemen.
Naar aanleiding van genoemd onderzoek constateert het kabinet dat de financiering
van met name collectieve processen soms lastig van de grond komt. Teneinde de financiering
in de toekomst te vergemakkelijken wordt momenteel onderzoek verricht naar de mogelijkheden
om een processenfonds in te richten. Rechtsbescherming heeft de volle aandacht van
het kabinet en zal in samenloop met de bovenstaande trajecten worden bezien.
De voorgestelde AI-verordening stelt primair eisen aan de systemen zelf en minder
aan het gebruik ervan. Toch kan het nuttig zijn ook burgers en belangenorganisaties
een ingang te bieden die naleving stimuleert. Ik zoek daarom op dit moment uit of
en hoe in Europees verband vanuit Nederland een voorstel voor introductie van een
klachtenrecht gedaan kan worden in de AI-verordening. Ook hierover ga ik graag met
uw Kamer en het veld in gesprek.
AAN DE NEDERLANDSE REGERING:
1. Bied voldoende schadeloosstelling aan de slachtoffers van discriminatie vanwege
het gebruik van het risicoclassificatiemodel
Naast de compensatieregeling die reeds is ingesteld voor slachtoffers van andere schade
die is toegebracht tijdens het toeslagenschandaal, moet de Nederlandse regering een
tegemoetkoming bieden aan de ouders en verzorgers die door het risicoclassificatiemodel
mede op grond van hun niet-Nederlandse nationaliteit zijn geselecteerd, vanwege de
discriminatie op grond van nationaliteit, etniciteit, maatschappelijke afkomst en
etnische profilering. De regering moet in snelle en doeltreffende procedures voorzien
en een passende compensatie bieden.
Bij brieven van 26 november 202119 en 8 december 202120 is uw Kamer geïnformeerd over de werking van het Risicoclassificatiemodel Toeslagen
(hierna: model). Sinds juli 2020 is het model definitief niet meer in gebruik.21 Op 21 april jl.22 is uw Kamer ook geïnformeerd over de analyse op de uitkomsten van het model.
Het doel van het model was om toeslagaanvragers te behoeden voor fouten en oneigenlijk
gebruik te voorkomen. Het model bepaalde het risico op onjuistheden in de ontvangen
beschikkingen aan de hand van vooraf gedefinieerde indicatoren. Het gebruik van het
model kon als gevolg hebben dat onder andere Nederlanders met lage inkomens en alleenstaanden
en mensen met een andere nationaliteit, een grotere kans hadden om geselecteerd te
worden voor een handmatige beoordeling. Zonder dat hier een deugdelijke grondslag
voor was.
De vraag of een eventuele tegemoetkoming zou moeten worden geboden als gevolg van
het gebruik van het model wordt nog nader onderzocht. Bij brief van 21 april 2022
is uw Kamer geïnformeerd over het breder gebruik van de risicoscore van het risicoclassificatiemodel
dan enkel voor het selecteren van aanvragen die voor een handmatige behandeling in
aanmerking kwamen door Toeslagen. Het is belangrijk om met zekerheid te kunnen vaststellen
dat alle hierover relevante informatie bekend wordt. Daarom zal een extern onderzoek
worden uitgevoerd. Onder andere om te proberen te achterhalen hoe breed het gebruik
van de risicoscores van het risicoclassificatiemodel Toeslagen heeft plaatsgevonden,
met wie het is gedeeld en welke gevolgen dit voor burgers heeft gehad.
2. Verdrag 108+ ratificeren
De Nederlandse regering moet Verdrag 108+ van de Raad van Europa ratificeren en implementeren.
Het kabinet werkt aan de ratificatie van het C108+ verdrag.23 Naar verwachting zal het voorstel van wet tot goedkeuring in het voorjaar aan de
Raad van State worden aangeboden.
Conclusie
Ik wil nogmaals mijn dank uitspreken voor het belangrijke werk van Amnesty International.
De gebeurtenissen van de afgelopen jaren hebben onder meer laten zien dat de overheid
meer moet doen om mensenrechten te beschermen bij het gebruik van algoritmische besluitvormingssystemen.
De komende jaren werk ik hier met het kabinet aan. Hierbij zullen we kijken naar passende
waarborgen, ondersteunende initiatieven, de menselijke maat en hoe de inzet van algoritmen
hierbij kan helpen.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
A.C. van Huffelen
Ondertekenaars
-
Eerste ondertekenaar
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties