Brief regering : Reactie op de Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen
35 212 Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen
Nr. 3 BRIEF VAN DE MINISTER VOOR RECHTSBESCHERMING EN DE STAATSSECRETARISSEN VAN BINNENLANDSE
ZAKEN EN KONINKRIJKSRELATIES EN VAN ECONOMISCHE ZAKEN EN KLIMAAT
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 20 april 2020
Op 6 juni 2019 heeft uw Kamer de Minister voor Rechtsbescherming verzocht om een reactie
te geven op de initiatiefnota «Menselijke grip op algoritmen» van het lid van uw Kamer
Middendorp.1 In de initiatiefnota wordt de Minister voor Rechtsbescherming verzocht om met betrokken
collega’s – in het bijzonder de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
en de Staatssecretaris van Economische Zaken en Klimaat – te werken aan een aantal
deeloplossingen die in de nota worden genoemd.2 In deze brief reageren wij gezamenlijk op de initiatiefnota.
Om de voorstellen in de initiatiefnota te bespreken is het belangrijk om eerst duidelijk
te maken wat het kabinet, zowel in algemene zin als in de context van de initiatiefnota,
verstaat onder algoritmen en «Artificial Intelligence». Zoals toegelicht in de brief
«Transparantie van algoritmen in gebruik bij de overheid» is een algoritme in beginsel
een set instructies om een bepaalde taak uit te voeren.3 Er bestaan verschillende typen algoritmen, het ene complexer dan het andere. Simpelere
algoritmen, zoals een «beslisboom», worden al jaren ingezet, zo ook door de overheid.
Dit gebeurt bijvoorbeeld bij het verlenen van vergunningen.
Dit zijn vaak één-op-één vertalingen van vormen van wetgeving en beleidsregels. Dit
is anders bij het gebruik van algoritmen waarbij op basis van eerdere gevallen een
voorspelling wordt gedaan. Wanneer systemen intelligent gedrag vertonen en op basis
daarvan met een zekere zelfstandigheid acties ondernemen, noemen we dit artificiële
intelligentie (hierna: AI). Waar wij in deze reactie het begrip algoritmen gebruiken,
valt AI hier dus onder. Het kabinet ziet dat bepaalde risico´s voor de menselijke
grip op algoritmen zich voordoen bij alle soorten algoritmen, bijvoorbeeld wanneer
er foute informatie in een systeem wordt ingevoerd. Het kabinet wil echter ook benadrukken
dat er specifieke risico’s zijn die zich voornamelijk voordoen bij meer intelligente
systemen, bijvoorbeeld ten aanzien van de uitlegbaarheid van uitkomsten. Met name
bij het gebruik van neurale netwerken zien wij een risico omdat de output daarvan
niet altijd goed verklaarbaar is.4 Deze benadering, waarbij aandacht is voor de variërende grootte van de risico´s bij
de inzet van algoritmen, ziet het kabinet ook terug in de initiatiefnota.
De initiatiefnota vraagt terecht onze aandacht voor de vraag of we wel voldoende menselijke
controle over de inzet van algoritmen hebben en doet een aantal interessante voorstellen
om deze controle te bestendigen of vergroten. In algemene zin kunnen wij ons in verregaande
mate vinden in de door de indiener voorgestelde oplossingen. Het gebruik van algoritmen
kan immers naast positieve ook negatieve effecten op de samenleving hebben. De overheid
heeft dan ook de taak om er zorg voor te dragen dat Nederland zowel de economische
en maatschappelijke kansen van algoritmen verzilvert als de publieke belangen die
daarbij in het geding kunnen zijn, borgt.5 Het kabinet wil dat het verzilveren van kansen en het creëren van waarborgen hand
in hand gaan. Hiermee volgt Nederland de Europese aanpak voor «mensgerichte AI».6 Deze ethische benadering van AI moet het vertrouwen van burgers in digitale ontwikkeling
versterken en is een unieke propositie voor Europa om zich internationaal mee te onderscheiden
in de markt voor AI-toepassingen.7 Deze benadering heeft concreet vorm gekregen in de op 19 februari jl. door de Europese
Commissie gepubliceerde Europese digitale agenda, specifiek in het document «White
paper on Artificial Intelligence: a European approach to excellence and trust» (hierna:
witboek AI).8 Conform de gebruikelijke procedure voor een witboek zal de concept-kabinetsreactie
aan de Kamer worden toegezonden en wordt de Kamer in de gelegenheid gesteld daarop
te reageren.
Graag wijzen wij erop dat het AI-beleid van het kabinet is neergelegd in de stukken
die op 8 oktober 2019 aan uw Kamer zijn gezonden, te weten het Strategisch Actieplan
voor AI (SAPAI), de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties
over «AI, publieke waarden en mensenrechten» en de brief van de Minister voor Rechtsbescherming
over «waarborgen tegen risico’s van data-analyses door de overheid» met de bijbehorende
«Richtlijnen voor het toepassen van algoritmen door overheden» (hierna: de richtlijnen).9 Met voorliggende brief, waarin ook de reactie van het kabinet op het onderzoeksrapport
«Toezicht op algoritmegebruik door de overheid» is opgenomen (zie hierna onder IV
en Bijlage 210), wordt het AI-beleid van het kabinet op het terrein van het toezicht op AI verder
ingevuld.
De initiatiefnota verzoekt ons te werken aan een aantal deeloplossingen. In deze brief
zullen wij puntsgewijs reageren op de afzonderlijke verzoeken.
I. Samenwerking
a) Het nauwgezet en stelselmatig betrekken van maatschappelijke organisaties, bedrijven
en mensen uit de praktijk. Dat kan in een nationaal algoritme-samenwerkingsverband
waarin het ontwikkelen van ideeën en het agenderen van en het bevorderen van een praktische
discussie over de rol van algoritmen in onze samenleving centraal staat.
Het kabinet is net als de indiener van mening dat nauwe samenwerking op dit onderwerp
van groot belang is. In SAPAI wordt al benoemd dat publiek-private samenwerking op
dit thema essentieel is. Een voorbeeld daarvan is de Nederlandse AI-coalitie, waarin
de overheid, het bedrijfsleven, maatschappelijke organisaties en onderzoeksinstellingen
samenwerken. In deze coalitie is aandacht voor de «mensgerichte (human-centric) benadering
van AI» en «maatschappelijke acceptatie en inclusie». Dit vertaalde zich bijvoorbeeld
in het stimuleren van bedrijven en overheden om deel te nemen aan de pilotfase van
de ethische richtsnoeren voor AI van de high level expert group
die is ingesteld door de Europese Commissie.11 De resultaten van deze pilot hebben gediend als input voor het witboek AI van 19 februari
jl. Wij zijn nog in afwachting van het rapport over de opbrengst van de pilot.
Verder heeft het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) in
samenwerking met het Ministerie van Justitie en Veiligheid (JenV), de VNG en andere
overheidsorganisaties geëxperimenteerd met de richtlijnen uit de brief «waarborgen
tegen de risico’s van data-analyse door de overheid», om zo te komen tot voor de praktijk
bruikbare en effectieve waarborgen.12 Maatschappelijke acceptatie en vertrouwen zullen immers alleen ontstaan wanneer er
voldoende waarborgen bestaan bij het gebruik van AI en algoritmen.
Naast de reeds bestaande samenwerkingsgremia kan er ook nog intensiever worden samengewerkt
als het gaat om AI, publieke waarden en mensenrechten. Daarom is er in januari van
dit jaar onder leiding van het Ministerie van BZK een samenwerkingsplatform opgericht
om de samenhang binnen het op mensenrechten gebaseerde AI-beleid te bevorderen en
kennis op het onderwerp AI, publieke waarden en mensenrechten te versterken.13 De eerste bijeenkomst van dit platform is benut om met de onderzoekers van bovengenoemd
rapport «Toezicht op algoritmegebruik door de overheid» in dialoog te gaan over hun
bevindingen en aanbevelingen.
b) Europese en internationale samenwerking gericht op het veilig inzetten van algoritmen
waarbij innovatie niet belemmerd wordt en op een manier die werkt voor grote en kleine
bedrijven.
Het kabinet is voorstander van een Europese aanpak om de veilige inzet van AI en algoritmen
te borgen en spant zich in om de kabinetspositie over AI, zoals vervat in de drie
AI-beleidsbrieven van 8 oktober 2019, ook in Europees verband uit te dragen. In de
initiatiefnota wordt opgemerkt dat Europese samenwerking essentieel is, gelet op het
grensoverschrijdende karakter van de materie, maar dat er bij Europese initiatieven
ook een gevaar bestaat dat er een «one-size fits all» benadering wordt gekozen, met alle negatieve neveneffecten van dien. Het kabinet
besteedt in zijn beleid aandacht aan de speciale positie van MKB-ondernemingen.14 Dit zal het ook doen in de uitwerking van de Nederlandse inzet ten aanzien van de
op 19 februari 2020 door de Commissie gepresenteerde digitale strategie. Zoals eerder
benoemd zal er een concept-kabinetsreactie aan de Kamer worden voorgelegd.
Verder participeren verschillende departementen op het eigen beleidsterrein in internationale
en Europese verbanden waar wordt gesproken over de ontwikkeling en het veilige gebruik
van algoritmen. In bijlage 1 bij deze brief is een niet uitputtend overzicht van de
Nederlandse participatie in dergelijke verbanden opgenomen15.
Voorts wijzen wij u nog graag op het in Nederland gevestigde AI-onderzoeksnetwerk
CLAIRE. Deze Europese confederatie van AI laboratoria richt zich op «mensgerichte
AI» en werkt aan AI die past binnen de Europese juridische en ethische kaders.16
c) Onderzoeken waar Europese en waar nationale standaarden nodig zijn. Daarbij steeds
de Nederlandse kennis en kunde waarborgen. Bijzondere aandacht geven aan die situaties
waar algoritmen (potentieel) grote impact op mensen hebben.
In de initiatiefnota wordt er naar het oordeel van het kabinet terecht op gewezen
dat het van groot belang is dat de rijksoverheid een actieve positie inneemt in de
ontwikkeling van standaarden voor het ontwikkelen en gebruiken van algoritmen, specifiek
wanneer deze een grote impact op mensen hebben. Dit om er zorg voor te dragen dat
de standaarden de juiste waarborgen bevatten en om te voorkomen dat er een «lappendeken»
van standaarden ontstaat. Het kabinet vindt het hierbij belangrijk dat de Nederlandse
kennis en kunde over algoritmen wordt vervat in internationaal geharmoniseerde standaarden
die recht doen aan de Europese waarden en normen.17
In bijlage 1 bij deze brief wordt een overzicht gegeven van de verschillende standaarden
die bij verscheidene nationale en internationale organisaties in ontwikkeling zijn18. Wij volgen deze ontwikkelingen nauwgezet en werken toe naar verdere completering
van dit overzicht om bedrijven en overheden te ondersteunen met het krijgen van overzicht
op dit punt.
Verder doet het Ministerie van BZK bijvoorbeeld onderzoek naar het operationaliseren
van mensenrechten tot systeemprincipes voor AI-ontwikkelaars om discriminatie in systemen
te voorkomen. Deze systeemprincipes zullen naar verwachting voor de zomer van dit
jaar aan bedrijfsleven en overheid beschikbaar worden gesteld. Tevens ontwikkelt dit
ministerie de mogelijkheden om een breder mensenrechten impact assessment voor overheden.
Een ander concreet actiepunt is dat het Ministerie van Economische Zaken en Klimaat
(EZK) de mogelijkheden verkent om het gebruik van de zogeheten FAIR-principes (Findable,
Accesible, Interoperable en Reusable) voor het delen van data voor AI-toepassingen
te stimuleren. In de eerste helft van 2020 worden de resultaten verwacht van een opdracht
om een certificeringsinstrument te ontwikkelen voor de naleving van de FAIR principes
voor data. Meer informatie over deze initiatieven is opgenomen in bijlage 1 bij deze
brief.
d) Analyse van de huidige samenwerking tussen gemeenten, provincies en Rijk als het gaat
om algoritmen en voorstellen doen voor een kenniscentrum voor algoritmen waar ideeën
over het gebruik en regulering kunnen worden uitgewisseld.
Het kabinet wil ervoor zorgen dat de verschillende lagen van de overheid tot gezamenlijke
ideeën komen over de inzet en regulering van algoritmen. Het kiest er niet voor om
één specifiek kenniscentrum voor algoritmen in het leven te roepen, maar onderneemt
een aantal initiatieven om dit te bewerkstelligen.
Zo is er het eerdergenoemde samenwerkingsplatform voor AI, publieke waarden en mensenrechten
dat in januari van start is gegaan en waarin ook decentrale overheden participeren.
Daarnaast willen wij u graag wijzen op het Leer- en Expertisepunt Datagedreven Werken
van het Ministerie van BZK. Dit verband bevordert kennisuitwisseling tussen overheden
op het terrein van data-gedreven werken. Het gaat hierbij om het delen van kennis
en het ontwikkelen van nieuwe richtlijnen en handreikingen om data en algoritmen op
een verantwoorde wijze in te zetten. In samenhang hiermee organiseert het kennisplatform
big data van ICTU en I-Interim Rijk kennisbijeenkomsten over onder andere algoritmetoepassing
voor beleidsmakers en datawetenschappers.
Een ander voorbeeld van samenwerking tussen overheden betreft het onderzoek door de
rijksoverheid en de VNG naar de bruikbaarheid en volledigheid van de richtlijnen uit
de brief «waarborgen tegen risico’s van data-analyses door de overheid»19, met name op het punt van transparantie en uitlegbaarheid.20
II. Bewustwording
a) Vergroten van het maatschappelijk bewustzijn over kansen en risico’s van algoritmegebruik
en de werking daarvan. Daarbij speciale aandacht voor de rechterlijke macht;
Het kabinet zet in op het vergroten van bewustwording over algoritmen onder burgers,
specifiek ten aanzien van de effecten die algoritmegebruik op hen heeft. Wanneer burgers
het effect van algoritmegebruik beter overzien, zijn zij ook beter in staat om waar
nodig hun rechten uit te oefenen. Er zijn dan ook verscheidene initiatieven geweest
om dit bewustzijn te vergroten. Zo organiseerde het Ministerie van BZK bijvoorbeeld
dialogen met burgers over AI waarin nader wordt verkend hoe burgers aankijken tegen
de gewenste inzet van AI en algoritmen door bedrijven en overheden21, ontwikkelde het een AI-lespakket voor middelbare scholieren over AI en lanceerde
het de voorlichtingscampagne «www.blijfkritisch.nl» over bewustwording van gepersonaliseerd nieuwsaanbod. Voorts hebben ook toezichthouders
een belangrijke rol in de voorlichting over algoritmen. Zo heeft de Autoriteit Persoonsgegevens
recent haar visiedocument «Toezicht op AI & Algoritmes» gepubliceerd waarin zij voorlichting
geeft over algoritmes, AI en de Algemene Verordening Gegevensbescherming (AVG).22 Niet alleen wordt geïnvesteerd in campagnes om burgers bewuster te maken van algoritmegebruik,
ook zijn er richtlijnen ontwikkeld om burgers beter te informeren over algoritmegebruik,
waarmee ook de algemene bewustwording over algoritmen wordt vergroot.23
Niet alleen burgers, maar ook rechters moeten zich bewust zijn van algoritmegebruik.24 Het gebruik van AI is immers snel aan het toenemen in de samenleving, bij ondernemers,
maar ook onder bestuursorganen. De rechtspraak zal daardoor bijvoorbeeld vaker oordelen
over rechtmatigheid van besluiten die (deels) gebaseerd zijn op toepassing van AI.
De uitspraak van de Raad van State in de PAS-zaken is daar een goed voorbeeld van.25 Een ander voorbeeld is de toepassing van AI door de rechtspraak zelf. Denk aan het
met gebruik van AI zoeken naar relevante jurisprudentie. De informatiepositie van
de onafhankelijke rechter moet op een zitting niet onderdoen voor die van grote advocatenkantoren.
Voor toepassing van AI en algoritmen in de rechtspleging zijn bijzondere ijkpunten
geformuleerd.26 Transparantie, één van de kernwaarden van de rechtspraak, is daar één van. Met het
oog op de bijzondere positie van de rechtspleging in onze samenleving is het uitgangspunt
dat ervaring moet worden opgedaan met de toepassing van AI en algoritmen, buiten de
context van reële, aanhangige rechtszaken of geschillen. Gelet op dit uitgangspunt
ligt het op dit moment niet voor de hand om burgers specifiek over algoritmegebruik
bij de rechterlijke macht voor te lichten.
b) Waar mogelijk mensen duidelijk maken wanneer er algoritmen gebruikt zijn bij beslissingen,
inclusief een versimpelde uitleg of illustratie
In de initiatiefnota wordt naar het oordeel van het kabinet terecht opgemerkt dat
transparantie over de inzet van algoritmen een belangrijk middel is om bewustwording
te vergroten. Hier komt bij dat transparantie van groot belang is om burgers controle
te geven over het gebruik van hun gegevens. De initiatiefnota signaleert echter ook
dat er soms belangen zijn die zich tegen transparantie verzetten. Deze belangenafweging
is onder meer verankerd in de Algemene Verordening Gegevensbescherming (AVG). In bijlage
1 is daarom een passage opgenomen waarin het AVG-kader met betrekking tot transparantie-
en informatieverplichtingen wordt besproken en waarin een koppeling wordt gelegd met
de recente brief over «waarborgen tegen risico’s van data-analyse door de overheid»
en de bijbehorende richtlijnen.27 In de richtlijnen worden onder meer extra regels over transparantie en uitlegbaarheid
voor overheden gesteld. Eén daarvan is bijvoorbeeld dat overheden als uitgangspunt
zouden moeten hanteren dat zij geen algoritmen gebruiken die te complex zijn om redelijkerwijs
te kunnen worden uitgelegd. Verder bevatten de richtlijnen regels over het bewust
zijn van risico’s, uitlegbaarheid, verantwoording, en toetsbaarheid.28 In bijlage 1.2 bij diezelfde brief wordt een kader gesteld voor transparantie over
data-analyse door overheden naar het publiek, dus niet alleen specifiek jegens degenen
wier informatie wordt verwerkt. Daar komt bij dat, zoals de indiener al benoemt, bestuursorganen
specifieke informatieverplichtingen hebben die onder andere voortvloeien uit de algemene
beginselen van behoorlijk bestuur en de Wet openbaarheid van bestuur. Naast voornoemde
richtlijnen wil het kabinet ook toewerken naar waarborgen die in wetgeving kunnen
worden opgenomen. De waarborgen die het kabinet voor ogen staan, zullen er eveneens
op gericht zijn de transparantie over algoritmen naar het publiek toe te vergroten.
Meer specifiek in relatie tot de uitlegbaarheid van beslisregels van een algoritme
door de overheid geldt in principe dat alleen algoritmen die verder gaan dan een directe
vertaling van wet- en regelgeving verder moeten worden uitgelegd.29 Voorts wordt er door verschillende departementen geëxperimenteerd met het betrekken
van datawetenschappers bij het maken van wetgeving. Doel hiervan is om ervoor te zorgen
dat wetgeving zo wordt opgesteld dat zij in algemene zin beter te vertalen is tot
beslisregels in algoritmen, om daarmee te voorkomen dat een algoritme leidt tot uitkomsten
die, in relatie tot de betreffende wet, niet uitlegbaar zijn.30
Bedrijven moeten op grond van de AVG voldoen aan hun informatieverplichtingen wanneer
zij persoonsgegevens verwerken, zoals toegelicht in bijlage 1 bij deze brief. Verder
vloeit uit de consumentenwetgeving voort dat consumenten een geïnformeerde keuze moeten
kunnen maken bij het aanschaffen van een product of dienst, wat in bepaalde gevallen
ook betekent dat bedrijven duidelijk moeten zijn over algoritmegebruik. Daar komt
bij dat in december 2019 de richtlijn voor betere handhaving en modernisering van
de regels voor consumentenbescherming in de Europese Unie gepubliceerd.31 Op grond daarvan moeten consumenten geïnformeerd worden wanneer gepersonaliseerde
prijzen op automatische wijze tot stand zijn gekomen. Het kabinet vindt het niet raadzaam
dat Nederland zelf verdere aanvullende regels voor bedrijven stelt. Zo nodig zullen
deze, gelet op het grensoverschrijdende karakter van veel bedrijfsprocessen, in Europees
verband moeten worden vastgesteld.32
c) Onderzoeken hoe onderwijs kan bijdragen aan bewustwording over kansen en risico’s
van algoritmen
Op dit moment vindt onder regie van de vertegenwoordigende partijen uit het onderwijs
een actualisatie plaats van het curriculum voor primair en voortgezet onderwijs. Hierin
vormt digitale geletterdheid een van de negen leergebieden die tot het kerncurriculum
gaan behoren, omdat het kennis en vaardigheden betreft die van belang zijn om mee
te kunnen doen in de samenleving. Onlangs heeft het kabinet een reactie gegeven op
de voorstellen die hiervoor zijn gedaan en hoe een uitwerking kan plaatsvinden naar
nieuwe onderwijsdoelen.33 Algoritmen en het gebruik hiervan maken onderdeel uit van deze voorstellen in verschillende
fases van het onderwijs, bijvoorbeeld bij hoe digitale processen hiermee kunnen worden
ingericht. De beoogde wettelijke verankering vindt in 2022 plaats.
III. Mensen instrumenten geven voor online weerbaarheid
a) In overleg met technologiebedrijven de mogelijkheden onderzoeken om mensen online
de mogelijkheid te geven in één keer aan te geven wat ze algoritme gebruikende instellingen
willen toestaan en wat niet
Het kabinet onderschrijft dat het belangrijk is om te blijven werken aan de online
weerbaarheid van burgers, ook als het gaat om het hebben van controle over persoonsgegevens.
We verwijzen daarbij onder meer naar de beleidsbrief Regie op Gegevens van 11 juli
2019.34 In die brief wordt aangegeven hoe burgers de controle op hun gegevens kunnen versterken
en wordt tevens een reactie gegeven op de initiatiefnota «Online identiteit en regie
op persoonsgegevens» van de leden Middendorp en Verhoeven.35
Zoals in onderhavige brief onder II (a) en (b) benoemd zet het kabinet in op het verbeteren
van de bewustwording en het vergroten van transparantie en uitlegbaarheid van algoritmen.
Hiermee wordt het voor burgers makkelijker om waar nodig hun rechten uit te oefenen.
De in dit punt voorgestelde oplossing vinden wij echter niet wenselijk. De wetgeving
met betrekking tot gegevensbescherming is namelijk gericht op het verwerken van gegevens.
De term «verwerking» is zeer breed, praktisch alles wat men met data kan doen valt
hieronder. De specifieke methode waarmee de analyse wordt uitgevoerd is daarom niet
van belang, nieuwe technologieën en analysemethoden vallen ook onder de term »verwerking».
Object van bescherming zijn de gegevens zelf en de wijze van verwerking daarvan, niet
de analysemethode. Het draait erom dat burgers controle hebben over hun gegevens en
dat zij controle hebben over het doel van onder de verwerking. Dit vinden wij in beginsel
een goed systeem. Binnen deze systematiek is het niet wenselijk om een generieke toestemming
voor algoritmegebruik in te stellen.
Allereerst zou de voorgestelde generieke toestemming in strijd zijn met de criteria
voor toestemming in de AVG. Aangezien een betrokkene in het voorstel in algemene zin
al dan niet toestemming zal geven voor een veelheid aan (types) algoritmen die door
een grote verscheidenheid aan instellingen voor allerlei doelen worden gebruikt, zou
dat in strijd zijn met het criterium van «voldoende geïnformeerde» toestemming »voor
een welbepaald doel» uit de AVG. Daar komt bij dat instellingen die algoritmen gebruiken
alsnog aan hun informatieplicht moeten voldoen (artikelen 13 en 14 AVG). De betrokkene
zou dus telkens alsnog een informatieverklaring moeten ontvangen. Dit zou de eventuele
«winst» van een algemene algoritmetoestemming nog verder beperken.
Ten tweede kennen algoritmen (nog) geen apart juridisch kader. De rechten ten aanzien
van en controle over algoritmegebruik die de burger heeft, volgen uit andere rechtsgebieden
(zoals het gegevensbeschermingsrecht en het bestuursrecht). Wanneer er persoonsgegevens
verwerkt worden is de AVG van toepassing en voor bepaalde communicatiegegevens geldt
de Telecommunicatiewet. Niet ieder algoritme maakt echter gebruik van persoons- of
telecommunicatiegegevens, wat maakt dat toestemming niet altijd vereist is.
Ten derde moet opgemerkt worden dat zelfs als er wel persoonsgegevens worden gebruikt
voor een algoritme, het alsnog niet zo is dat er altijd toestemming vereist is. Het
verwerken van persoonsgegevens voor een algoritme moet worden gedaan op basis van
een van de zes rechtsgronden in artikel 6 AVG. Voor overheden is het bijvoorbeeld
vaak zo dat zij deze gegevens verwerken omdat dit noodzakelijk is voor de uitvoering
van hun publieke taak. Ook wanneer er sprake is van geautomatiseerde besluitvorming,
wat in beginsel verboden is in artikel 22 AVG, zijn er gevallen waarin er geen toestemming
van de betrokkene nodig is om toch van het verbod af te mogen wijken en geautomatiseerde
besluitvorming toe te mogen passen (bijvoorbeeld op basis van een wettelijke grondslag).
b) Onderzoek met technologiebedrijven en ICT-brancheorganisaties naar algoritme checkers,
keurmerken en ratingsystemen en bestaande initiatieven in deze stimuleren.
Het kabinet juicht toe dat marktpartijen hun verantwoordelijkheid nemen in aanvulling
op bestaande wettelijke vereisten. Er zijn verschillende initiatieven die hier invulling
aan geven, zoals vertrouwde derde partijen die audits uitvoeren op algoritmen of keurmerken
voor verantwoorde AI afgeven.
De meeste initiatieven bevinden zich nog in de ontwikkelfase, met name omdat breed
geaccepteerde standaarden waarop keurmerken of certificaten gebaseerd kunnen worden
nog onvoldoende voorhanden zijn. Van belang daarvoor zijn met name internationaal
geharmoniseerde standaarden (zoals ISO) die recht doen aan Europese waarden en normen.
Zoals eerder benoemd streeft het kabinet naar uniforme eisen en een consistente toepassing
daarvan. Het zal de ontwikkelingen op dit gebied dan ook nauwgezet volgen en waar
nodig ondersteuning bieden om tot een overzicht van deze normen te komen. Verwacht
wordt dat de bestaande initiatieven voor algoritmecheckers, keurmerken en ratingsystemen
zich verder kunnen ontwikkelen wanneer er breed geaccepteerde normen zijn.
IV. Toezicht dat innovatie de ruimte geeft, MKB-proof is en Nederland online sterk
en veilig houdt
In de initiatiefnota wordt ons tevens verzocht aan een aantal deeloplossingen te werken
met betrekking tot het toezicht op algoritmen. De voorgestelde deeloplossingen komen
in verregaande mate overeen met de vragen die zijn geadresseerd in het onderzoeksrapport
«Toezicht op het gebruik van overheidsalgoritmen», dat in opdracht van het Ministerie
van BZK is uitgevoerd naar aanleiding van een drietal moties ingediend door de leden
Verhoeven en Van der Molen, Middendorp en Drost.36 Om die reden is de reactie van het kabinet op dit onderzoek bij deze brief opgenomen
en wordt die u langs deze weg door de Ministers van BZK en JenV aangeboden. Zie hiervoor
bijlage 2. Het onderzoek, uitgevoerd door adviesbureau Hooghiemstra & Partners, is
op 20 december 2019 aan uw Kamer gezonden.
Op hoofdlijnen houdt deze reactie het volgende in. In lijn met de conclusies van de
onderzoekers acht het kabinet het vooralsnog niet opportuun om een aparte toezichthouder
op het gebruik van algoritmen in te stellen. Niet alleen zou de instelling van een
nieuwe toezichthouder leiden tot een overlap en daarmee concurrentie met de bevoegdheden
van de bestaande toezichthouders, in het bijzonder de Autoriteit Persoonsgegevens.
Ook zijn er volgens het kabinet geen dusdanige juridische lacunes in de toezichttaken
die de noodzaak van een nieuwe toezichthouder rechtvaardigen. In plaats van een meldplicht
voor ingrijpende algoritmen, waar in de moties om wordt gevraagd, zal het kabinet
een algoritme
impact assessment ontwikkelen, dat kan worden gekoppeld aan een zogenaamde voorafgaande raadpleging
bij de betreffende toezichthouder en een mogelijke publicatieverplichting. Verder
acht het kabinet het van groot belang dat het toezicht op het gebruik van algoritmen
een meer structureel karakter krijgt en dat organisaties actiever met elkaar samenwerken
en kennisdelen. Het kabinet zal hierover in gesprek gaan met de toezichthouders. Met
de ADR zal worden verkend welke rol zij kan spelen bij het op structurele basis uitvoeren
van audits op het algoritmegebruik door de rijksoverheid.
Met de onderzoekers onderschrijft het kabinet het belang van een helder normenkader
voor het adequaat kunnen houden van toezicht. Met de eerdergenoemde richtlijnen is
hier een belangrijk begin mee gemaakt. Dit traject wordt voortgezet, zoals aangekondigd
in de brief van 8 oktober 2019 over waarborgen tegen risico’s van data-analyses.
Tenslotte, en in lijn met de aanbevelingen van de onderzoekers zal het kabinet verkennen
of een (wettelijk verankerde) experimenteerruimte voor overheidsorganisaties op het
gebied van de inzet van algoritmen kan worden gerealiseerd en hoe de dialoog tussen
overheidsorganisaties en wetenschappers een structureel karakter kan krijgen om tot
gezamenlijke definities en gedragen oplossingen op het terrein van AI en algoritmen
te komen.
Een aantal in de initiatiefnota voorgestelde deeloplossingen komen in bijlage 2 niet
aan de orde. In het onderstaande gaan we daar alsnog op in.
a) Een inventarisatie maken van de gekozen aanpak in het buitenland om algoritme gebruikende
instellingen meer te laten communiceren over algoritmegebruik. Daarbij specifiek naar
Duitsland, Frankrijk, Groot-Brittannië en de Verenigde Staten te kijken.
Er wordt via de diplomatieke vertegenwoordigingen uitvraag gedaan naar de gekozen
aanpak in de genoemde landen. Vooralsnog is er vanuit één van deze landen een reactie
ontvangen. Wanneer alle reacties binnen zijn zullen we de gevraagde inventarisatie
aan uw Kamer doen toekomen. Naar verwachting zal deze inventarisatie voor de zomer
van 2020 gereed zijn.
b) Bundelen van huidige kennis en lopende onderzoeken op de verschillende ministeries
en toezichthouders
Zoals reeds vermeld onder punt I(a) van deze brief, is in januari 2020 een nieuw samenwerkingsplatform
opgericht worden ter bevordering van de samenhang van beleid en kennis ten aanzien
van AI, publieke waarden en mensenrechten. Wat betreft het bundelen van de kennis
van toezichthouders verwijzen wij u naar bijlage 2. De verder lopende onderzoeken
op verschillende departementen lenen zich niet voor bundeling van de resultaten.
c) Andere openstaande deeloplossing t.a.v. het bedrijfsleven
Wat betreft het bedrijfsleven is het kabinet voornemens om eerst af te wachten hoe
de richtlijnen voor data-analyse voor overheden in de praktijk uitpakken. Vervolgens
zal er aan de hand daarvan worden nagedacht over de vraag of deze richtlijnen, dus
ook op het gebied van uitlegbaarheid en auditeerbaarheid, ook moeten gelden voor (delen
van) het bedrijfsleven. Hier komt nog bij dat het kabinet er de voorkeur aan geeft
dat eventuele verdere regels voor data-analyse door het bedrijfsleven in Europees
verband worden vastgesteld. Het kabinet juicht toe dat bedrijven extra verantwoordelijkheid
nemen, bijvoorbeeld door gebruik te maken van derde partijen die een audit uitvoeren.
Daar komt bij dat bedrijven hun eigen AI-toepassingen ook grondig kunnen evalueren,
bijvoorbeeld door gebruik te maken van het AI-Impact assessment dat is ontwikkeld
door het ECP en het Ministerie van EZK.37 Een verplichte verantwoording in de vorm van een rapportage is wat ons betreft nog
niet aan de orde, omdat er, zoals hierboven toegelicht, nog geen specifieke normen
worden gesteld.
d) Een taskforce instellen met als opdracht een operationeel toezichtkader uit te werken
op basis van de in de Initiatiefnota genoemde principes en kenmerken
Voor zover dit overheden betreft is, is een dergelijk toezichtkader reeds in ontwikkeling
in de vorm van de eerdergenoemde richtlijnen en zijn er naar aanleiding van het onderzoeksrapport
van adviesbureau Hooghiemstra & Partners, diverse acties in gang gezet om het toezicht
te versterken. Zie hierover bijlage 2 bij deze brief.
Voor wat betreft het bedrijfsleven geldt dat, zoals onder IV. c) is aangegeven, het
niet voor de hand ligt om op nationaal niveau aanvullende normen of verplichtingen
te stellen. Hetzelfde geldt voor het toezicht op algoritmen gebruikt door bedrijven:
een nieuwe toezichthouder voor het bedrijfsleven kan mogelijk strijdigheid opleveren
met het vrij verkeer van persoonsgegevens: bedrijven die (mede) in Nederland algoritmen
aanbieden zouden immers aan extra regels en een extra toezichthouder onderhevig zijn.
Daarnaast is relevant dat er, zoals gezegd, momenteel in Europees verband nagedacht
wordt over normen alsook over governance en toezichtmechanismen, die ook zullen gelden
voor het bedrijfsleven.
Het kabinet acht het niet wenselijk om een taskforce in te stellen voor onderwerpen
die reeds onderzocht zijn en tot concrete acties hebben geleid. Desalniettemin zou
een taskforce mogelijk een rol kunnen vervullen als het gaat om nieuwe of nog openstaande
vraagstukken waar nog geen beleid op is of voor lopende trajecten waarbij een vorm
van review door een taskforce zou kunnen bijdragen aan draagvlak en kwaliteit. Het
kabinet zal dan ook nader verkennen of, en zo ja, op welke punten en in welke vorm
een dergelijke taskforce meerwaarde zou kunnen bieden en hoe deze functioneel kan
worden ingebed in de reeds bestaande overlegstructuren en gremia.
Het kabinet zal deze verkenning rond de zomer van 2020 afronden en een besluit nemen
over het al dan niet instellen van een taskforce.
Slot
In deze brief zijn wij per punt ingegaan op de door de indiener voorgestelde deeloplossingen
en hebben wij daarbij toegelicht welke beleidsinitiatieven er op deze punten reeds
lopen. We concluderen dat het kabinet in veel gevallen op hetzelfde spoor zit als
de indiener. In veel gevallen wordt er dan ook gewerkt aan de voorgestelde deeloplossingen
of kunnen wij ons vinden in de door de indiener gedane voorstellen. Waar dit niet
het geval is hebben wij toegelicht waarom het kabinet voor een andere oplossing heeft
gekozen dan wel waarom er reden is om te wachten tot duidelijk is wat de resultaten
zijn van de bestaande initiatieven.
De Minister voor Rechtsbescherming, S. Dekker
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, R.W. Knops
De Staatssecretaris van Economische Zaken en Klimaat, M.C.G. Keijzer
Ondertekenaars
-
Eerste ondertekenaar
S. Dekker, minister voor Rechtsbescherming -
Mede ondertekenaar
M.C.G. Keijzer, staatssecretaris van Economische Zaken en Klimaat -
Mede ondertekenaar
R.W. Knops, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties