Lijst van vragen : Lijst van vragen over artificiële intelligentie bij de politie (Kamerstuk 26643/32761-652)
2020D05320 LIJST VAN VRAGEN
De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen voorgelegd
aan de Minister van Justitie en Veiligheid over de brief van 3 december 2019 inzake
Artificiële intelligentie bij de politie (Kamerstuk 26 643, nr. 652).
De voorzitter van de commissie, Van Meenen
De adjunct-griffier van de commissie, Burger
Nr.
Vraag
1
Wordt aan de Tweede Kamer inzicht verschaft over de toepassing van artificiële intelligentie
(AI) door de politie en zo ja, hoe en wanneer?
2
Hoe staat het met de digitale geletterdheid van de politieagenten in Nederland?
3
Wanneer vindt de evaluatie van de wet Computercriminaliteit III plaats?
4
Hoe wordt AI toegepast op het gebied van de financiële misdaad?
5
Op welke wijze wordt de naleving van het legaliteitsbeginsel bij de inzet van AI door
de politie gegarandeerd?
6
Worden private bedrijven betrokken bij het ontwerp van AI systemen bij de politie
en zo ja, welke? Hoever strekt die samenwerking?
7
Wordt overwogen te gaan werken of experimenteren met realtime gezichtsherkenning?
8
Wordt overwogen of al geëxperimenteerd met het gebruiken van het Criminaliteits Anticipatie
Systeem (CAS) voor misdrijven die buiten de categorie van High Impact Crimes vallen?
9
Hoe wordt de noodzaak om bias te voorkomen geadresseerd bij het gebruik van kunstmatige
intelligentie binnen de politie?
10
Kan predictive policing een opsporingsmethode genoemd worden?
11
Past het gebruik van realtime gezichtsherkenning door voormalig EU-collega Engeland
binnen het Coordinated Plan on Artificial Intelligence van de EU?
12
Hoe verhoudt predictive policing zich tot het beginsel dat er sprake moet zijn van
een redelijk vermoeden van een strafbaar feit, een verdenking, voordat overgegaan
kan worden tot opsporing?
13
Wordt overwogen iets te doen aan predictive identification, een vorm van predictive
policing waarin personen of groepen aangewezen kunnen worden als potentiële misdadigers
of slachtoffers van bepaalde strafbare feiten?
14
Wie is er verantwoordelijk voor (eventuele) fouten van AI?
15
Kan worden aangegeven waar Nederland staat in vergelijking tot andere Europese landen
als het gaat om de ontwikkeling en toepassing van AI?
16
Wat voor invloed heeft de SyRi-uitspraak op de manier waarop de politie AI toepast?
17
Kunt u, zo nodig vertrouwelijk, een overzicht geven welke AI toepassingen op dit moment
in bedrijf of in ontwikkeling zijn bij de politie?
18
Als in de brief gesproken wordt over (big) data, wordt dan enkel gedoeld op databestanden
die de politie zelf aanhoudt en grotendeels vallen onder de werking van de Wet politiegegevens,
of wordt dan ook gedoeld op publieke databestanden, hetzij van andere overheden hetzij
publieke data die via internet benaderbaar zijn? Klopt het beeld dat de politie nu
al gebruik maakt van data-mining? Kunt u, zo nodig vertrouwelijk, een overzicht geven
van de toepassing van data-mining binnen en door de politie?
19
Hoe gaat de politie, specifiek als het gaat om AI toepassingen, om met de «Richtlijnen
inzake publieksvoorlichting over data-analyses» (bijlage 1.2 bij Kamerstuk 26 643, nr. 641, d.d. 8 oktober 2019)? Klopt het dat deze richtlijn als uitgangspunt heeft een actieve
informatieverstrekking vanuit de betrokken overheidsorganisatie aan het publiek, inclusief
expliciete vermelding in een privacystatement op de eigen website van in dit geval
de politie? Deelt u de observatie dat dergelijke informatie op dit moment niet te
vinden is op de website van de politie? Gaat hier op korte termijn verandering in
komen?
20
Kent u de bijlage «Toelichting op typen data-analyses waarvoor wettelijke waarborgen
zullen gaan gelden» (bijlage 2 bij Kamerstuk 26 643, nr. 641, d.d. 8 oktober 2019)? Wat betekent het in deze bijlage geformuleerde voornemen om
tot wettelijke waarborgen voor twee typen data-analyse te komen, profilering en gebiedsgebonden
analyse, voor de ontwikkeling van AI binnen de politie? Behoren niet juist deze twee
typen data-analyse tot de kern van het politiewerk en dreigt hiermee niet een rem
te ontstaan op innovaties?
21
Is er, gezien het feit dat uit de brief duidelijk wordt dat ethiek in de ontwikkeling
van AI toepassingen binnen de politie een belangrijke rol speelt, sprake van een politie-specifiek
ethisch document of een ethische guideline aan de hand waarvan AI toepassingen worden
ontwikkeld en getoetst? Welk houvast hebben ontwikkelaars, leidinggevenden, interne
en externe toezichthouders bij het beoordelen en toetsen van de voortgang van projecten?
Wordt hier de hulp ingeroepen van externe deskundigen?
22
Welke kennis rond AI en big data is aanwezig bij het lijnmanagement, bij de korpscontroller
en bij de afdeling Concernaudit? Kunt u deze vraag specifiek beantwoorden, inclusief
verwijzing naar relevante werkervaring en opleidingen?
23
Welke rol speelt de functionaris gegevensbescherming op korpsniveau in het toezicht
op de ontwikkeling van AI toepassingen?
24
In hoeverre zijn beslisbomen daadwerkelijk altijd neutraal? Kunnen beslisbomen impliciete
aannames bevatten, die helemaal niet neutraal zijn?
25
Klopt het dat beslisbomen niet altijd neutraal zijn, maar vaak impliciete aannames
bevatten en in een bepaalde richting kunnen tenderen? Herinnert u zich de beslisboom
van het Ministerie van Economische Zaken (EZ) van maart 2000, over marktwerking en
privatisering? Klopt het dat het invullen van deze beslisboom in bijna alle gevallen
leidde tot het advies om over te gaan tot privatisering en/of marktwerking? Klopt
het dat dit een weerspiegeling was van het toenmalige marktdenken op het Ministerie
van EZ? Klopt het dat beslisbomen helemaal niet neutraal zijn? Waarom is het dan «helder
dat hier geen bijzonder beleid voor nodig is»?
26
Als de privatiseringsbeslisboom van het Ministerie van EZ van 2000 niet neutraal was,
kunt u dan uitsluiten dat de algoritmes, beslisbomen en risicotaxaties van de politie
evenmin neutraal zijn? Op welke manier kan een dergelijke vooringenomenheid of bias
uitgesloten worden?
27
Wie of welke instantie beoordeelt de neutraliteit van algoritmes? Welke rol kunnen
de Autoriteit Persoonsgegevens (AP), de Koninklijke Nederlandse Akademie van Wetenschappen
(KNAW), de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) en de Algemene
Rekenkamer daarbij spelen?
28
Waar ligt de grens tussen intelligent gedrag van systemen en systemen die eerder invoerde
aannames uitvoeren? Klopt het dat deze grens niet scherp te trekken is, en er een
groot grijs gebied is tussen intelligent gedrag en ingevoerd of geïnduceerd gedrag?
Hoe beoordeelt u in dit kader de uitspraak «Het is gevaarlijk als alleen witte mannen
algoritmes maken» van dhr. Frans Muller (Forum, «Frans Muller: bedrijven moeten ethisch
omgaan met data»)?
29
Zijn algoritmes en AI niet te vergelijken met een zichzelf bevestigende grabbelton,
onder het motto «wat je er in stopt, haal je er ook weer uit»?
Lopen AI toepassingen daarmee niet het risico een echoput te worden van vooroordelen
en/of vooringenomenheid, waaronder ook racisme en discriminatie? Hoe kunt u dit uitsluiten?
Wie of welke instantie toetst hierop? Is er een toetsing denkbaar die analoog is aan
de toetsing uit de Sleepwet van 2018, met een commissie die noodzaak en proportionaliteit
beoordeelt? Zo nee, op welke manier is dan een toetsing mogelijk?
30
In hoeverre wordt AI nu al toegepast door de politie als het gaat om het beoordelen
van meldingen van oplichting? Is hetgeen te zien is in het tv-programma TROS Radar
maatgevend voor hoe AI functioneert? Klopt het dat meer dan de helft van de opgelichte
mensen van de politie het advies krijgt om een advocaat in de arm te nemen, en dat
de politie de aangifte niet wil opnemen, omdat het civiele zaken zou betreffen en
geen strafrechtelijke zaken? In hoeverre kan AI werken, als de menselijke beoordeling
van oplichtingszaken nu al niet werkt? Wordt de toepassing van AI dan niet een foutenfestival
in het kwadraat?
31
Wordt ook overwogen om het Juridisch Loket te vervangen door AI? Zal zo'n Juridische
Robot een positief of een negatief effect hebben op de kwaliteit van de advisering?
32
Zijn politieagenten op straat ook te vervangen door AI? Aan welke concrete verschijningsvorm
kan daarbij gedacht worden? Moet daarbij gedacht worden aan een variant op Robocop
(een figuur uit een Amerikaanse sciencefiction-actiefilm uit 1987 en 2014)?
33
Wat waren de positieve en negatieve kanten aan het functioneren van Robocop, in uw
ogen? Kunt u hierbij ook ingaan op de kwaliteiten van Judge Dredd (een Amerikaanse
actiefilm uit 1995)? Valt de Terminator (1984 e.v.) volgens u ook onder de gewenste
AI?
34
In hoeverre maken criminelen ook gebruik van AI? Gebruiken cybercriminelen ook algoritmes
en AI om slachtoffers te kiezen voor hackaanvallen? Op welke manier kan dit tegengegaan
worden?
35
Hoe kan de overheid en dus ook de politie de criminelen voor blijven in de technologische
wedloop? Kunt u daarbij betrekken wat daarover is gezegd in Nieuwsuur van 5 februari
2020? Deelt u de daarin geuite mening dat het helemaal niet vaststaat dat de overheid
deze wedloop gaat winnen van de criminelen?
36
Hoe gaat de overheid en dus de politie waarborgen dat men niet te afhankelijk wordt
van private partijen die dit soort technologieën leveren?
37
Voor welke werkprocessen bouwt de politie op dit moment aan AI-toepassingen binnen
de politieorganisatie?
38
Hoe wordt bepaald of de toepassing van AI-technologie daadwerkelijk leidt tot een
reductie van administratieve lasten?
39
Kan worden aangegeven in hoeverre nu wordt ingezet op kennisuitwisseling met andere
Europese landen als het aankomt op AI?
40
Welke partijen nemen naast de overheid nog meer deel aan de Nederlandse AI Coalitie?
41
Welke criteria worden gebruikt om partijen te selecteren voor de AI Coalitie?
42
Bij welke van haar taken wordt er reeds AI toegepast door de politie?
43
Zijn er terreinen binnen het politiewezen waar nu nog geen gebruik wordt gemaakt van
AI, maar die wel kansen bieden voor het gebruik van AI?
44
Kan meer duidelijkheid worden gegeven over hoe wordt bepaald welke taken zullen worden
uitgevoerd door de politie met hulp van AI?
45
In hoeverre is de theorie en toepassing van AI verankerd in de politieopleiding?
46
Bij welke politietaken wordt AI reeds gebruikt in het kader van de aanpak van ondermijning?
Is er ruimte binnen dit domein om meer AI te gebruiken? Hoe wordt dit getoetst?
47
Op welke wijze zet de overheid zich in om actief discriminatie te voorkomen in de
AI systemen van politie?
48
Op welke wijze toetst de politie de afwezigheid van discriminatie in AI systemen?
49
Welke externe partijen zoals (universiteiten, bedrijven en individuen werken op dit
moment samen met de politie bij het ontwikkelen van AI toepassingen? Kunt u beschrijven
op welke wijze deze externe partijen met de politie samenwerken, indachtig de opmerking
in de brief dat de politie «niet te afhankelijk» moet worden van andere partijen?
50
Hoe ziet de foutmarge van AI eruit? Welke gevolgen kunnen foute beslissingen hebben,
die genomen worden op basis van AI?
51
Kan AI ertoe leiden dat onschuldige verdachten worden aangewezen, zoals bij de Arnhemse
moordzaak in 1998? Klopt het dat bij de Arnhemse moorzaak in 1998 sprake was van een
discriminerende vooringenomenheid, die heeft geleid tot negen personen die onschuldig
zijn veroordeeld tot jarenlange gevangenisstraffen, wat bij één persoon heeft geleid
tot zelfmoord? Hoe kan het dat de Arnhemse politie op basis van een snipper foutief
bewijs in een onvoorstelbare tunnelvisie terecht is gekomen? Kunt u uitsluiten dat
juist AI de politie aan foutieve snippers bewijs gaat helpen, dat leidt tot nieuwe
tunnelvisies?
52
Op welke manier gaat het wetenschappelijke karakter van het Nationale Politielab AI
bewaakt worden? Welke waarborgen heeft u daarvoor ingebouwd? Welke rol gaat het Transparantielab
hierbij spelen?
53
Wordt er een juridisch en ethisch kader opgesteld voor de toepassing van AI?
54
Op welke wijze legt de politie verantwoording af over de wijze hoe AI wordt toegepast?
55
Hoe zijn op dit moment de rechten van inwoners beschermd die deel uitmaken van een
experiment, proeftuin of pilot?
56
Worden inwoners adequaat geïnformeerd over de gevolgen voor hun privacy-rechten? Zo
ja, hoe worden zij geïnformeerd? Zo nee, waarom niet?
57
Wordt bij elke nieuwe toepassing van een AI techniek ook een nieuwe juridische en
ethische toetsing gedaan?
58
Hoe worden beslissers bij de politie juridisch en ethisch getraind en opgeleid om
verantwoorde besluiten te kunnen nemen op basis van door AI ondersteunde processen?
Welke rol moet de Politieacademie vervullen om aan deze vaardigheidseisen te voldoen?
59
Welke ethische standaarden zijn er uit het onderzoek van het Nationaal Politielab
AI gekomen en welke daarvan worden ook echt toegepast?
60
In hoeverre bestaat er oefenruimte voor de politie om te kunnen experimenteren met
AI?
61
Hoeveel is reeds begroot voor het opzetten van het Nationaal Politielab AI?
62
In hoeverre werkt het Nationaal Politielab AI samen met het Openbaar Ministerie (OM)?
63
In hoeverre zet u het verlagen van de werkdruk in als strategie om de negatieve effecten
van AI binnen de opsporing te voorkomen (zie het rapport Beginselen Digitaal (Rapport
van een verkennend Onderzoek in opdracht van het WODC, Kamerstuk 29 279, nr. 388, waaruit blijkt dat bij een hoge werkdruk uitkomsten van de computer vaker klakkeloos
worden overgenomen)?
64
Op welke manier zijn de informatie-extractie, de juridische toetsing en de optimalisatie
van de vraagvolgorde uit elkaar te houden? Deze hangen toch allemaal met elkaar samen?
65
Wat voor soort publicaties over AI wil de politie in wetenschappelijke tijdschriften
gaan plaatsen? Hoe voorkomt de politie daarbij dat de criminelen meelezen? Of wordt
er gemakshalve vanuit gegaan dat criminelen dit niet gaan doen?
66
Met welke private partijen werkt de politie samen in het kader van AI? Indien geen
private partijen worden betrokken bij de ontwikkeling en toepassing van kunstmatige
intelligentie in de politiepraktijk, waarom niet?
67
Met welke nationale of internationale kennispartners werkt de politie samen? Hoe wordt
geborgd dat zij geen veiligheidsrisico kunnen vormen?
68
Hoe wordt de betrouwbaarheid van kennispartners van de politie getoetst en wordt deze
toetsing regulier uitgevoerd?
69
In hoeverre wordt de Tweede Kamer geïnformeerd over de uitkomsten van onderzoek op
het gebied van AI bij de politie?
70
Kunt u het interne kwaliteitskader big data dat de politie samen met het OM in het
kader van het programma Toekomstbestendig Opsporen en Vervolgen heeft opgesteld zo
nodig vertrouwelijk delen met de Tweede Kamer? Hoe verhoudt dit interne kader zich
tot de ministerieel vastgelegde «richtlijnen voor het toepassen van algoritmes door
overheden» (bijlage 1 bij Kamerstuk, 26 643, nr. 641, dd. 8 oktober 2019)?
71
Op welke wijze wordt discriminatie als onbedoeld gevolg van de toepassing van AI voorkomen?
72
Waarom stelt u in de brief dat «de politie zijn eigen strengste criticaster is»? Hoe
relateert u deze uitspraak aan het functioneren van de politie in de Arnhemse moordzaak,
niet alleen in 1998–1999, maar ook nu? Is er in de afgelopen 22 jaar enige vorm van
zelfreflectie geweest? Klopt het dat de politie helemaal niet «zijn eigen strengste
criticaster» is maar juist het tegenovergestelde? Namelijk dat door een interne angst-
en suppressiecultuur geen enkele zelfreflectie mogelijk is, afgezien van een enkeling
die inmiddels met pensioen is?
73
Op welke manier houdt de Inspectie voor Justitie en Veiligheid toezicht op het gebruik
van AI door de politie? Hoeveel fte heeft de Inspectie daarvoor beschikbaar? Heeft
de Inspectie daarvoor de benodigde expertise en welke vorm neemt deze expertise aan?
74
Klopt het dat het boek «1984» (met daarin Big Brother) uit 1948, en de daarin beschreven
surveillancestaat, in China inmiddels een realiteit geworden is? Kunt u uitsluiten
dat elementen van zo’n politiestaat in Nederland ingang zullen vinden?
75
Wie controleert de effecten van een Data Protection impact assessment? Welke rol spelen
de AP en de Auditdienst Rijk hierin?
76
Welke externe toezichthouders hebben of krijgen inzicht in het interne kwaliteitskader
dat door politie en OM wordt gehanteerd?
77
Kunnen burgers inzien welke data van hen gebruikt worden door AI bij de politie?
78
Worden er enkel data gebruikt van burgers die in contact zijn geweest met justitie,
of gaan de data ook over «reguliere» burgers?
79
Welke strafbare feiten met behulp van algoritmes en AI worden er gepleegd, en hoe
vaak kwamen deze strafbare feiten in 2019 voor?
80
Bij wie ligt de verantwoordelijkheid voor monitoring van de toepassing van AI bij
politietaken? Zit daar een bepaalde evaluatietermijn aan vast?
81
Welke mechanismen worden in werking gesteld op het moment dat discriminatie wordt
opgemerkt in het ontwerp, gebruik of de uitkomst van AI systemen?
82
Welke stappen zijn er ondernomen om te voorkomen dat de AI systemen van de politie
voornamelijk worden gericht op gemarginaliseerde groepen in de samenleving? Hoe vindt
de evaluatie van dit soort waarborgen plaats?
Ondertekenaars
-
Eerste ondertekenaar
P.H. van Meenen, voorzitter van de vaste commissie voor Justitie en Veiligheid -
Mede ondertekenaar
M.C. Burger, adjunct-griffier
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.