Inbreng verslag schriftelijk overleg : Inbreng verslag van een schriftelijk overleg over de initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen (Kamerstuk 35212-2)
2019D36296
INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen en opmerkingen
voorgelegd aan de initiatiefnemer over menselijke grip op algoritmen (Kamerstuk 35 212).
De voorzitter van de commissie, Van Meenen
Adjunct-griffier van de commissie, Burger
I Vragen en opmerkingen vanuit de fracties
1. Inleiding
2. Menselijke grip op Algoritmen
2.1. Aanleiding
2.2. Doel en strekking
3. Concrete stappen naar menselijke grip op algoritmen
3.1. Voorstellen voor menselijke grip op algoritmen
3.1.1. Samenwerking op algoritmebeleid binnen en buiten Nederland
3.1.2. Betekenisvolle transparantie en bewustwording
3.1.3. Mensen instrumenten geven om online weerbaar te zijn
3.1.4. Inzicht door toezicht
4. De huidige stand van zaken en uitvoering
4.1. Stand van zaken en wettelijk kader
5. Financiële consequenties
6. Beslispunten
7. Overig
I. Vragen en opmerkingen vanuit de fracties
1. Inleiding
De leden van de VVD-fractie hebben verheugd kennisgenomen van de initiatiefnota van
het lid Middendorp: Menselijke grip op algoritmen (hierna: de initiatiefnota). Zij
onderschrijven het belang om een helder kader te creëren waarbinnen de kansen die
algoritmen bieden op een veilige manier gewaarborgd zijn. Wel hebben voornoemde leden
nog enkele vragen aan de initiatiefnemer.
De leden van de CDA-fractie hebben met belangstelling kennisgenomen van de initiatiefnota.
Zij danken de initiatiefnemer voor het werk dat is gestopt in de totstandkoming van
de nota. Deze snijdt een zeer actueel en relevant punt aan, namelijk welke rol algoritmen
in onze samenleving spelen en hoe de overheid daarmee om dient te gaan. De aan het
woord zijnde leden moedigen elke mogelijkheid om dit onderwerp te bespreken aan. Zij
hebben echter wel vragen bij de opzet van de initiatiefnota en de voorgestelde plannen.
De leden van de D66-fractie hebben met interesse kennisgenomen van de initiatiefnota.
Zij waarderen het harde werk van de initiatiefnemer op dit belangrijke onderwerp.
Deze leden hebben nog enkele vragen en opmerkingen.
De leden van de GroenLinks-fractie zijn de initiatiefnemer en zijn ondersteuning zeer
erkentelijk voor het schrijven van deze initiatiefnota. Het is een zeer nuttige stap
in de ontwikkeling, die in de Tweede Kamer als zeer gewenst en zelfs noodzakelijk
wordt ervaren, om meer grip te krijgen op digitale ontwikkelingen. Voornoemde leden
hebben nog wel een aantal vragen.
De leden van de SP-fractie danken de initiatiefnemer en zijn medewerkers voor het
schrijven van deze nota. Deze leden zijn het met de initiatiefnemer eens dat het belangrijk
is om meer inzicht te krijgen in algoritmen, zeker wanneer die ingrijpende gevolgen
kunnen hebben voor mensen of zelfs potentieel schade kunnen toebrengen, omdat ze een
steeds belangrijkere rol lijken te gaan spelen in onze samenleving. De initiatiefnota
biedt de mogelijkheid om stil te staan bij de invloed die digitale ontwikkelingen,
en algoritmen in het bijzonder, hebben op het leven van individuen, maar zeker ook
op de samenleving als geheel. De leden van de SP-fractie maken graag van deze gelegenheid
gebruik.
2. Menselijke grip op Algoritmen
2.1. Aanleiding
De leden van de VVD-fractie lezen dat de initiatiefnemer stelt dat we in Nederland
de grote mogelijkheden die algoritmen bieden moeten benutten. Voornoemde leden zijn
van mening dat we niet ontkomen aan het gebruik van algoritmen. Kan de initiatiefnemer
aangeven welke risico’s ons land loopt en welke kansen ons land misloopt wanneer we
algoritmen niet zouden reguleren?
De leden van de CDA-fractie zetten vraagtekens bij de gehanteerde definitie door de
initiatiefnemer. In de initiatiefnota lijkt het erop dat «algoritme» op meerdere manieren
wordt gebruikt, wat tot onduidelijkheid leidt bij de bespreking van de inzet en plannen
van de initiatiefnemer, zo vrezen de aan het woord zijnde leden. Zij lezen in de inleiding
terug dat een algoritme niet veel meer is dan een set instructies die tot een bepaald
doel leiden. Daarmee zijn algoritmen in zeer simpele vorm in bijna elk digitaal systeem
terug te vinden. Echter menen de leden van de CDA-fractie dat deze breedte van het
begrip tot onduidelijkheid leidt in de plannen die gepresenteerd worden in de initiatiefnota.
Daarom vragen voornoemde leden of de initiatiefnemer zijn definitie van een algoritme
wil geven en dan in het bijzonder als hij spreekt over meer controle op algoritmen.
Specifiek willen de aan het woord zijnde leden weten welke algoritmen de initiatiefnemer
precies bedoelt.
De leden van de D66-fractie lezen dat de initiatiefnemer een aantal schadelijke gevolgen
van algoritmen schetst, namelijk het overmatig tonen van anti-vaccinatie boeken, automatische
selectiemechanismen die vrouwen zouden benadelen en de rol van algoritmen bij digitale
inmenging. Deze leden zijn het eens met de initiatiefnemer dat dit onwenselijke ontwikkelingen
zijn waar de samenleving grip op moet hebben. Op welke manier wil de initiatiefnemer
grip krijgen op deze ontwikkelingen?
De leden van de SP-fractie constateren dat inmiddels niet alleen maar grote bedrijven
als Facebook en Google big data verwerken met algoritmen, maar dat ook kleinere bedrijven
en ook de overheid grote hoeveelheden (meta)data verzamelen en analyseren. De inlichtingen-
en veiligheidsdiensten, maar ook de belastingdienst gebruiken data en algoritmen voor
hun werk, en ook de politie experimenteert met voorspellende data en de inzet van
SyRI (Systeem Risico Indicatie). Alleen al omdat het gebruik zo wijd verspreid is,
maar niet altijd duidelijk zichtbaar is, zou het goed zijn om hierover helder en duidelijk
te communiceren naar burgers. Te allen tijde. Deelt de initiatiefnemer deze mening?
Zo nee, waarom niet?
Wat betreft big data leven bij de leden van de SP-fractie een aantal vragen waar de
overheid zich over zou moeten buigen om vervolgens te komen tot regelgeving die een
zorgvuldige verzameling van data en het zorgvuldige gebruik van algoritmen moeten
gaan waarborgen: worden data verzameld, door wie en waar en welke invloed hebben dergelijke
keuzes op de mogelijke vooringenomenheid (bias) in een dataset ten aanzien van wijken
en groepen in de samenleving? Welke standaarden gelden er voor algoritmen, het analyseren
van datasets en de gevonden statistische correlaties in termen van kwaliteit, zorgvuldigheid
en herhaalbaarheid? En welke garanties zijn er dat de data-gedreven processen transparant
en controleerbaar zijn en dat de data-inzet aan voldoende toezicht is onderworpen?
Heeft de initiatiefnemer het idee dat deze vragen op dit moment centraal staan in
het denken van de overheid? Zo nee, is het een idee om deze vragen als leidraad te
laten gelden bij het opstellen van nieuwe landelijke en/of sectorale regelgeving vanuit
de overheid? Is de initiatiefnemer van mening dat de mogelijkheden voor procespartijen
om de collectieve en algemene belangen die met big data processen gemoeid zijn nu
voldoende kunnen worden verdedigd, zowel binnen het bestuursrecht als het civielrecht
en het strafrecht? Zo ja, op welke manier?
2.2. Doel en strekking
De leden van de VVD-fractie delen het belang van de initiatiefnemer dat het belangrijk
is dat de bewustwording van mensen over algoritmen toeneemt. Wel vragen zij hoe de
initiatiefnemer denkt dit te kunnen realiseren.
De leden van de CDA-fractie zien dat initiatiefnemer onderkent dat de staat vanwege
het geweldsmonopolie en de taak om de inwoners te beschermen van oudsher ruimer toegang
heeft tot het persoonlijk leven van mensen. Daarnaast stelt de initiatiefnemer dat
grote technologiebedrijven wellicht nog meer toegang hebben tot persoonsgegevens en
met algoritmen onze levens steeds meer sturen. Maakt de initiatiefnemer hier nog onderscheid
in? Acht de initiatiefnemer het wenselijk dat particuliere bedrijven op hetzelfde
niveau worden gezet als de staat qua mate van toezicht en bevoegdheden? Of ziet de
initiatiefnemer meer ruimte voor de staat in het licht van de taak om de burger te
beschermen?
3. Concrete stappen naar menselijke grip op algoritmen
3.1. Voorstellen voor menselijke grip op algoritmen
De leden van de CDA-fractie zien dat de initiatiefnemer bepleit dat er menselijke
grip wordt gehouden op algoritmen. Zij vragen daarbij aan de initiatiefnemer of dit
ook betekent dat burgers altijd recht moeten houden op menselijke tussenkomst indien
zij dat verlangen. Oftewel, dat een mens niet tegen de digitale muur op loopt en te
horen krijgt dat de computer een bepaald besluit heeft genomen dat definitief is.
Indien de initiatiefnemer het hiermee eens is, vragen de leden van de CDA-fractie
waarom dit geen onderdeel is van de initiatiefnota.
De leden van de D66-fractie constateren dat de initiatiefnemer wil dat instellingen
zelf meer inzicht creëren in kansen, risico’s en de gevolgen van de algoritmen die
zij gebruiken. Geldt dit wat de initiatiefnemer betreft ook voor bedrijven? Kan de
initiatiefnemer aangeven hoe hij dit wil afdwingen als instellingen of bedrijven dit
niet doen? Welke consequentie is er?
3.1.1. Samenwerking op algoritmebeleid binnen en buiten Nederland
De leden van de CDA-fractie lezen dat de initiatiefnemer voorstelt om een nationaal
algoritme-samenwerkingsverband in het leven te roepen. Hij stelt daarbij dat «zonder
helder kader het voor bestuurders verleidelijk is om te willen beslissen over bijvoorbeeld
«ideologische» keuzes (bijvoorbeeld die tussen vrijheid en gelijkheid) die mogelijkerwijs
in algoritmen worden gemaakt». Voornoemde leden vragen hoe dat heldere kader waarover
gesproken wordt eruit moet komen zien. Ook vragen zij hoe dat kader tot stand zal
worden gebracht en wie daarbij betrokken zullen zijn. Ziet de initiatiefnemer een
scenario voor zich waarbij dergelijke keuzes voor het kader van het voorgestelde algoritme-samenwerkingsverband
niet zullen worden ingegeven door ideologische keuzes?
De leden van de D66-fractie lezen dat de initiatiefnemer het heeft over het ontwikkelen
van standaarden. Kan de initiatiefnemer nader uitwerken wat voor standaarden hier
worden bedoeld en welk doel die standaarden moeten dienen? Kan de initiatiefnemer
nader ingaan op het nationaal algoritme-samenwerkingsverband dat hij wil inrichten?
Wie moet daarbij aangesloten zijn? Wat is het doel van dit samenwerkingsverband? Zorgt
dit niet voor veel bureaucratie? Wat wil hij er mee bereiken?
De leden van de GroenLinks-fractie lezen dat het volgens de initiatiefnemer nuttig
is om een helder kader te scheppen voor bestuurders om te voorkomen dat zij verschillende
«ideologische» keuzes maken bij de ontwikkeling van algoritmen. Vaak hoort men dat
het ontwerp van algoritmen niet waardenvrij is. Hoe ziet de initiatiefnemer dat? En
wat voor een verschillende keuzes kunnen worden gemaakt tussen vrijheid en gelijkheid
(de voorbeelden die door de initiatiefnemer zelf zijn aangedragen) die niet in meer
of mindere mate leiden tot (indirecte) discriminatie?
De aan het woord zijnde leden vragen wat de initiatiefnemer bedoelt met de opmerking:
«Nederland moet zelf waarborgen dat het menselijke boven computers gesteld wordt en
het midden- en kleinbedrijf (MKB) wordt ontzien.»? Worden er andere eisen gesteld
aan de algoritmen van het MKB, als het aan de initiatiefnemer ligt? En gaan die verschillen
zo ver dat het MKB niet verplicht wordt om het menselijke boven computers te stellen?
3.1.2. Betekenisvolle transparantie en bewustwording
De leden van de CDA-fractie constateren dat in de initiatiefnota afwijzend wordt gereageerd
op het volledig transparant maken van de werking van algoritmen. Deze leden zien meerwaarde
in open-source initiatieven van zowel de overheid als (grote) technologiebedrijven,
zeker wanneer het gaat om zelflerende algoritmen. Deelt de initiatiefnemer deze mening?
In plaats van volledige transparantie pleit de initiatiefnemer voor betekenisvolle
transparantie, zo lezen de leden van de CDA-fractie. Voornoemde leden vragen de initiatiefnemer
op welke wijze bepaald zal worden welke algoritmen betekenisvol transparant gemaakt
moeten worden en ook in welke mate het begrip «betekenisvol» dient te worden ingevuld.
De leden van de GroenLinks-fractie constateren dat de initiatiefnemer zich laat kennen
als een voorstander van betekenisvolle transparantie in plaats van volledige transparantie.
Wat betekent dit voor de mogelijkheid om een algoritme door experts te laten onderzoeken
op bijvoorbeeld discriminerende mechanismes? De vertaling van het algoritme (naar
voornoemde leden aannemen door het bedrijf zelf) van de volledige naar de betekenisvolle
variant kan ertoe leiden dat cruciale informatie niet inzichtelijk wordt gemaakt.
Voorts lezen de leden van de GroenLinks-fractie dat de initiatiefnemer aangeeft dat
volledige transparantie over algoritmen en de gegevens die zij gebruiken vaker niet
kan dan wel, onder meer omdat bedrijven niet gedwongen moeten worden concurrentiegevoelige
informatie te delen. Hoe verhoudt het recht op eigendom zich volgens de initiatiefnemer
tot het recht op gelijke behandeling, en het recht om deze gelijke behandeling af
te dwingen?
De leden van de SP-fractie lezen dat de initiatiefnemer schrijft dat bedrijven niet
gedwongen moeten worden om transparantie te geven over hun algoritmen als dit zou
inhouden dat zij daardoor concurrentiegevoelige informatie zouden moeten delen. Kan
de initiatiefnemer dit verduidelijken? Betekent dit dat bedrijven dan in principe
nooit transparantie zouden hoeven geven over hun algoritmen? Wie moet aantonen dat
het daadwerkelijk gaat om concurrentiegevoelige informatie? Waarom vindt de initiatiefnemer
het een goed idee dat bedrijven op basis van algoritmen, die niet-transparant zijn,
de concurrentie met elkaar aangaan? Is het tegengaan van ongelijkheid en het bevorderen
van transparantie in de samenleving niet belangrijker dan het concurrentiebelang van
een bedrijf?
3.1.3. Mensen instrumenten geven om online weerbaar te zijn
De leden van de D66-fractie vragen op welke manier de initiatiefnemer wil dat de overheid
de private sector en brancheorganisaties stimuleert en ondersteunt in de ontwikkeling
van algoritmecheckers, ratingsystemen en keurmerken. Kan de initiatiefnemer zijn voorstel
voor een rood, groen of geel online paspoort nader uitwerken? Moet dit een publiek
online paspoort zijn? Hoe wordt dit in de praktijk vormgegeven? Moeten websites aangeven
wat voor soorten paspoorten ze wel of niet accepteren? Hoe verhoudt dit voorstel zich
tot de Algemene verordening gegevensbescherming (AVG)? Stelt de initiatiefnemer met
dit voorstel dat mensen moeten kunnen kiezen of ze blootgesteld willen worden aan
algoritmen? Mogen bedrijven mensen met een bepaald type paspoort weigeren?
De leden van de GroenLinks-fractie lezen dat de initiatiefnemer een voorstel doet
voor een stoplichtsysteem. Als je aangeeft dat je niet blootgesteld wilt worden aan
algoritmen die gebruikmaken van persoonsgegevens, en dus kiest voor een rood paspoort
zou het logische gevolg zijn dat je veel innovatieve diensten niet kunt gebruiken.
Is er dan nog sprake van een vrije keus? Wil de initiatiefnemer de keuze geheel aan
het bedrijf laten wat het in ruil voor diensten mag vragen?
De leden van de SP-fractie lezen in de initiatiefnota over groene, gele en rode paspoorten
waarbij iemand kan aangeven in welke mate hij of zij bloot gesteld wil worden aan
algoritmen die persoonsgegevens gebruiken. In dat kader vragen deze leden of de initiatiefnemer
de mening deelt dat ook als je besluit niet blootgesteld te willen worden aan algoritmen
die persoonsgegevens gebruiken, je niet uitgesloten zou mogen worden van diensten,
sites, etc.
3.1.4. Inzicht door toezicht
De leden van de CDA-fractie lezen dat de initiatiefnemer pleit voor een nieuwe toezichthouder
die zich begeeft op het snijvlak van de verschillende gebieden die geraakt worden
door algoritmegebruik. Zij vragen de initiatiefnemer of dit niet al ondervangen wordt
met de AVG die, zoals de initiatiefnemer zelf ook stelt in zijn nota, al verschillende
voorschriften geeft over het gebruik van algoritmen. Is het daarmee niet een taak
van de Autoriteit Persoonsgegevens (AP) om daarop toe te zien? Op welke vlakken ziet
de initiatiefnemer hiaten of elementen die dubbel voorkomen? En op welke wijze wil
de initiatiefnemer deze oplossen of wegnemen?
De leden van de D66-fractie constateren dat de initiatiefnemer zich uitsluitend richt
op algoritmen, terwijl juist de data die gebruikt worden van belang zijn Als de gebruikte
data waarmee een algoritme getraind wordt «biased» zijn dan kan dat leiden tot discriminatie
of andere onwenselijke uitkomsten. Ook verouderde of eenzijdig samengestelde datasets
vergroten de kans op oneigenlijke uitsluiting of ongelijke behandeling. Het algoritme
zelf is daarbij niet de bron van de ongewenste gevolgen, maar dat zijn de gebruikte
data. Toch heeft de initiatiefnemer geen aandacht voor data in zijn initiatiefnota.
Dit is een grote omissie. Kan de initiatiefnemer hier nader op ingaan?
De aan het woord zijnde leden constateren dat de initiatiefnemer een toezichtkader
wil toepassen bestaande uit drie niveaus: 1) rapportage door algoritme gebruikende
instellingen, 2) externe partijen, zoals accountants, die meekijken en 3) een publieke
toezichthouder. Kan de initiatiefnemer aangeven wie precies bedoeld worden met algoritme
gebruikende instellingen? Zijn dat alleen overheden of ook bedrijven? Moeten deze
instellingen alleen rapporteren over algoritmen met een hoog risicoprofiel of ook
over andere algoritmen? Aan wie moet deze rapportage gericht zijn? Kan de initiatiefnemer
nader ingaan op de manier waarop dit toezichtkader in de praktijk zou moeten werken?
Wat is precies de rol van de externe partijen in dit toezichtkader? Op basis waarvan
kan de publieke toezichthouder controle uitoefenen? Hoe ziet de initiatiefnemer het
samenspel tussen de externe partijen en de publieke toezichthouder voor zich? Leidt
dit uitgebreide, drievoudige toezichtkader niet tot een hoop overlap, onduidelijkheid
en bureaucratie? Kan de initiatiefnemer hier een onderbouwing van geven? Waarom kiest
de initiatiefnemer niet voor een enkelvoudige vorm van toezicht, in de vorm van een
onafhankelijke autoriteit?
De leden van de GroenLinks-fractie lezen dat de initiatiefnemer geen regels wil die
verbieden, maar die gericht zijn op meer informatieverstrekking. Maar het klopt toch
dat hij juist ook veel beperkingen aanbrengt in de verplichting om informatie te openbaren?
Zie paragraaf 2.2.2. van de initiatiefnota. Hoe verhoudt zich dit tot elkaar? De initiatiefnemer
is op zoek naar een algoritmetoezichthouder. In hoeverre voldoet de AP hier nu al
aan? Wat doet de AP nog niet, dat deze algoritmetoezichthouder wel zou moeten doen?
De initiatiefnemer pleit voor het veilig inzetten van algoritmen waarbij innovatie
niet belemmerd wordt. In hoeverre kunnen deze twee doelstellingen op gespannen voet
staan met elkaar?
De leden van de SP-fractie zijn van mening dat de AP een belangrijke rol moet spelen
in het toezien op het gebruik van algoritmen. Om goed toezicht te kunnen houden en
om ook te kunnen handhaven heeft de AP wel voldoende middelen nodig. Denkt de initiatiefnemer
dat de AP op dit moment en voor de toekomst voldoende middelen heeft om haar werk
inderdaad goed te doen? Zo ja, kan hij dit onderbouwen?
In het kader van consumentenrechten hebben de leden van de SP-fractie nog enkele vragen
aan de initiatiefnemer. Hoe kunnen mensen aan de bel trekken over algoritmen als zij
niet weten dat een beslissing is genomen op basis van een algoritme? Met andere woorden:
hoe weten mensen wanneer ze aan de bel kunnen dan wel moeten trekken? En in het verlengde
daarvan: hoe weet je als consument of een algoritme alleen naar jou discrimineert
of in het algemeen discrimineert en maakt dat gegeven nog iets uit voor de vorm van
een klacht bij de AP dan wel bij de rechter?
4. De huidige stand van zaken en uitvoering
4.1. Stand van zaken en wettelijk kader
De leden van de GroenLinks-fractie lezen dat de initiatiefnemer op zoek is naar een
kader. Kent de initiatiefnemer de «Ethics guidelines for trustworthy AI» van the High-Level
Expert Group on Artificial Intelligence van april 2019, waarin een Europees kader
wordt voorgesteld? In hoeverre voldoet dit aan de wensen van de initiatiefnemer en
in hoeverre niet? Welke kaders ten aanzien van algoritmen dienen, volgens de initiatiefnemer,
op Europees niveau te worden vastgesteld, en welke op nationaal niveau?
Volgens de leden van de SP-fractie is slechts een deel van het dataverzamelingsproces
in de AVG geregeld, namelijk dat deel dat ziet op data die te kwalificeren zijn als
persoonsgegevens. Het rapport van Van der Sloot en Van Schendel beschrijft dit probleem
helder.1 Deelt de initiatiefnemer de mening dat het ook goed zou zijn om een aantal minimumregels
neer te leggen voor het verzamelen van data niet zijnde persoonsgegevens? Juist omdat
die gegevens grote groepen mensen beslaan en daaruit voortvloeiend ook individuele
burgers geraakt kunnen worden.
De leden van de SP-fractie stellen vast dat de AVG nauwelijks regels stelt omtrent
het analyseren van data. Dat betekent dat er nauwelijks wettelijke normen zijn voor
of wettelijk toezicht is op hoe bijvoorbeeld profielen worden vervaardigd, op conclusies
over de patronen en correlaties die worden gevonden en hoe data worden geanalyseerd.
Dat is volgens de aan het woord zijnde leden zeer problematisch en kan tot allerlei
ongewenste situaties leiden, omdat als er een fout of een vooringenomenheid zit in
een dataset, een algoritme of een profiel, dit betekent dat het private of overheidsoptreden
dat gebaseerd is op dat profiel óók fout of vooringenomen kan zijn. Ziet de initiatiefnemer
dit probleem? Hoe denkt de initiatiefnemer dat de analysefases goed gecontroleerd
kunnen worden? Is het niet noodzaak, als we dit goed willen controleren, dat altijd
volledige transparantie gegeven wordt over gebruikte algoritmen?
5. Financiële consequenties
De leden van de CDA-fractie lezen dat door de initiatiefnemer wordt gesteld dat alle
plannen die worden voorgesteld in de initiatiefnota geen financiële consequenties
zullen hebben. Dat komt de aan het woord zijnde leden wat onwaarschijnlijk over. Deelt
de initiatiefnemer de mening dat de gevraagde onderzoeken, de overheid op hetzelfde
kennisniveau brengen als technologiebedrijven, het uitrollen van bewustwordings- en
informatiecampagnes om burgers weerbaar te maken en het in het leven roepen van een
nieuwe toezichthouder (publiek) geld zullen kosten? Kan de initiatiefnemer hiervan
een schatting maken?
Over de financiële consequenties van de plannen van de initiatiefnemer hebben de leden
van de SP-fractie nog de volgende vraag: kan de initiatiefnemer verduidelijken waarom
hij denkt dat het voorgestelde toezichtkader een kleine organisatie kan worden met
een beperkt aantal fte’s? Hoe kan een kleine organisatie adequaat toezicht houden
op een oneindige hoeveelheid aan algoritmen? Betekent dit dat deze organisatie zelf
ook gebruik zal moeten gaan maken van algoritmen om toezicht te houden op algoritmen?
6. Beslispunten
De leden van de GroenLinks-fractie lezen dat de initiatiefnemer voorstelt om mensen
«waar mogelijk» duidelijk te maken wanneer er algoritmen gebruikt zijn bij beslissingen.
Kan de initiatiefnemer voorbeelden geven van gevallen waarbij dat niet mogelijk zijn?
De leden van de SP-fractie lezen dat de initiatiefnemer in één van de beslispunten
schrijft dat «waar mogelijk mensen duidelijk gemaakt moet worden wanneer er algoritmen
gebruikt zijn bij beslissingen…». Kan de initiatiefnemer dit voor deze leden verduidelijken?
In welke gevallen is dit volgens de initiatiefnemer niet mogelijk?
7. Overig
De leden van de SP-fractie zijn ervan doordrongen dat de overheid in het algemeen
belang, of uit het oogpunt van nationale veiligheid een legitiem beroep kan doen op
geheimhouding van door de overheid gebruikte algoritmen. Toch zou ook in gevallen
waarin burgers denken onevenredig benadeeld te worden door beslissingen vanuit de
overheid openheid van zaken gegeven moeten worden. Ziet de initiatiefnemer in dat
kader iets in de oplossing, zoals voorgesteld door Van der Sloot en Van Schendel,
om een «special advocate» te introduceren die namens de burger de algoritmen, data
en onderliggende stukken kan inzien en de verdediging daaromtrent kan voeren, maar
tegelijkertijd gehouden is aan geheimhouding en deze informatie niet met de burger
deelt? Zo nee, waarom niet?
Tot slot willen de leden van de SP-fractie de initiatiefnemer vragen naar de toepassing
van algoritmen in het strafrecht. Is de initiatiefnemer voorstander van bijvoorbeeld
computerprogramma’s die rechters helpen bij het maken van inschattingen over verdachten
en veroordeelden? Zo ja, waarom? Vindt de initiatiefnemer dan in ieder geval dat te
allen tijde transparantie gegeven moet worden over de gebruikte algoritmen? Zo nee,
waarom niet?
Ondertekenaars
-
Eerste ondertekenaar
J. Middendorp, Tweede Kamerlid
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.