Brief regering : Artificiële intelligentie bij de politie
26 643 Informatie- en communicatietechnologie (ICT)
32 761
Verwerking en bescherming persoonsgegevens
Nr. 652
BRIEF VAN DE MINISTER VAN JUSTITIE EN VEILIGHEID
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 3 december 2019
De ontwikkeling van artificiële intelligence (AI) heeft de afgelopen jaren een vlucht
genomen. Daarmee is ook de aandacht voor dit onderwerp gegroeid. Op Europees niveau
is er een Coordinated Plan on Artificial Intelligence ontwikkeld1 en ook het Nederlandse kabinet heeft recent haar Strategisch Actieplan AI gepubliceerd.2 Hierin wordt aangegeven dat AI oplossingen kan bieden voor maatschappelijke uitdagingen.
Een van de domeinen waarvoor dit geldt betreft Veiligheid.
De verwachting is dat de politie steeds vaker in de uitvoering van haar taken gebruik
zal maken van AI. Dat gebeurt, afhankelijk van het type taak, in afstemming met het
Openbaar Ministerie. De korpschef en ik hechten er waarde aan dat de toepassing van
artificiële intelligentie bij de politie transparant gebeurt en dat hierover ook open
wordt gecommuniceerd. Met deze brief informeer ik uw Kamer daarom over de wijze waarop
de politie AI ontwikkelt en inzet, en hoe het toezicht daarop geregeld is.
Artificiële intelligentie
AI wordt vaak in één adem genoemd met algoritmes. Maar niet alle algoritmes zijn artificiële
intelligentie. Een willekeurige spreadsheet bevat bijvoorbeeld tal van (simpele) algoritmes,
helder is dat hier geen bijzonder beleid voor nodig is. Algoritmes die feitelijk een
beslisboom zijn worden al vele jaren gebruikt door de politie voor o.a. risicotaxaties.
Hierbij wordt gebruik gemaakt van vaststaande regels of feiten om zo een selectie
te kunnen maken in politiegegevens. Pas als het gaat om algoritmes waarbij systemen
intelligent gedrag kunnen vertonen en in meer of mindere mate zelfstandig kunnen leren
en acties kunnen ondernemen, gaat het over AI.
Een voorbeeld van een AI-toepassing bij de politie is de keuzehulp die wordt ingezet
bij meldingen van internetoplichting. Hierbij is het voor de burger mogelijk in natuurlijke
tekst een melding te doen. Met AI wordt de melding geanalyseerd op volledigheid en
krijgt de burger gerichte aanvullende vragen om zo de melding te verbeteren of completer
te maken. De melder krijgt vervolgens direct advies of er mogelijk sprake is van een
misdrijf zodat melding doen relevant is, of dat beter andere acties kunnen worden
genomen zoals het bevragen van het Juridisch Loket. Dit geeft burgers snel duidelijkheid
en gericht advies hoe te handelen, het scheelt onterechte meldingen en vermindert
de werklast voor de politie mede omdat het de kwaliteit van de melding verbetert
In het strategisch actieplan AI van het kabinet worden drie sporen onderscheiden die
ook voor de politie van belang zijn. Het gaat om het benutten van de kansen van AI,
het scheppen van de juiste voorwaarden en het versterken van de fundamenten. De politie
pakt deze drie sporen op.
AI en de kansen voor de politie
De politietaak is de afgelopen jaren veranderd, bijvoorbeeld door digitalisering en
internationalisering van criminaliteit. AI en algoritmes bieden kansen voor een betere
uitvoering van de politietaak. Zo kunnen bepaalde toepassingen criminele verbanden
in opsporingsonderzoeken zichtbaar maken die voor een mens moeilijk, tijdrovend of
zelfs helemaal niet te vinden zijn. Daarnaast kan met AI grote hoeveelheden data worden
doorzocht, georganiseerd en gefilterd, zodat een politiemedewerker gerichter een analyse
kan uitvoeren. Voorbeelden zijn het inzichtelijk maken van communicatiestromen, criminele
netwerken of -markten aan de hand van metagegevens en/of woordindexering, het automatisch
doorzoeken van duizenden foto’s of videomateriaal en het herkennen van locaties of
voorwerpen op kinderpornografisch materiaal.
De politie ontwikkelt en gebruikt AI niet alleen omdat dit het mogelijk maakt om bestaande
taken en diensten efficiënter en effectiever uit te voeren. AI kan de politie ook
in staat stellen om strafbare feiten te onderzoeken en bloot te leggen die zonder
AI geheel buiten beeld zouden blijven. Criminaliteit wordt steeds complexer vanwege
bijvoorbeeld de verwevenheid van onder- en bovenwereld en internationalisering. Dit
verschijnsel zien we onder andere bij ondermijning. Daarnaast verplaatst criminaliteit
zich naar het digitale domein. Het gebruiken van AI is daarom geen luxe, maar een
noodzaak om effectief te kunnen blijven optreden.
Goede kennis over de werking van AI is ook nodig om onderzoek te kunnen doen naar
strafbare feiten die worden gepleegd met behulp van zeer geavanceerde algoritmes en
AI. Het AI-gebruik zit dan aan de zijde van de dader, en de politie moet in staat
zijn om dat volledig te onderzoeken en doorgronden. Daarbij is het belangrijk dat
de politie niet te afhankelijk wordt van andere partijen die dit soort kennis en belangrijke
technologieën leveren. Mede omdat door de politie toegepaste technieken en technologie
waar mogelijk (kijkend naar het te beschermen opsporingsbelang en het risico op ingecalculeerd
gedrag) transparant en auditeerbaar moeten zijn.
Om de kansen die AI als sleuteltechnologie biedt te benutten is het van belang dat
de politie experimenteert met toepassing ervan binnen haar werkprocessen, binnen de
juiste voorwaarden waarbij publieke waarden centraal staan. In het vervolg ga ik in
op deze aspecten.
Zorgvuldigheid voorop
Het ontwikkelen van algoritmes, AI toepassingen en ook de inzet daarvan voor het politiewerk
moet zorgvuldig gebeuren. Datzelfde geldt voor het gebruik maken van data. De Minister
voor Rechtsbescherming is algemeen en systeemverantwoordelijk voor (normering rond)
transparantie, toetsbaarheid en rechtsbescherming in het kader van AI en algoritmes.
Vanuit die verantwoordelijkheid heeft hij op 8 oktober 2019 richtlijnen voor het toepassen
van algoritmes door overheden met uw Kamer gedeeld.3 Vanuit mijn verantwoordelijkheid voor de politie vind ik het daarbij extra belangrijk
dat AI en algoritmes die worden ingezet ten behoeve van de politietaak transparant
zijn voor zowel de politie zelf, het gezag, in het strafrechtproces en voor de toezichthouders.
De kwaliteit van de gebruikte algoritmes en de uitkomsten daarvan moeten kunnen worden
gecontroleerd en gevalideerd. Afhankelijk van de mate waarop een AI toepassing of
algoritme meer ingrijpende gevolgen voor de burger kan hebben zijn er strengere waarborgen
nodig voor de inzet daarvan. Dat is niet anders voor bestaande onderzoeksmethoden
en technieken.
Net als dat menselijke beoordelingen of afwegingen een foutmarge kennen, is die er
ook bij AI. Hoewel het inmiddels al zo is dat AI op specifieke taken tot betere resultaten
komt dan een mens dat zou kunnen, aandacht voor foutmarges belangrijk is. Een foutmarge
bij een aanbeveling van een webwinkel is hoogstens vervelend voor de klant. Voor de
politie ligt dat vanzelfsprekend anders. Hierbij geldt dat het type proces, de actie
maar met name het potentiële gevolg bepalend is voor de acceptatie van de marge van
fouten van een AI toepassing. Voor ingrijpende processen zal AI in principe politiemedewerkers
slechts ondersteunen in hun taak. Het uitgangspunt is dat er bij het gebruik van AI
altijd sprake is van een menselijke tussenkomst bij het nemen van besluiten («human in the loop»). Desalniettemin is ook bij besluitondersteuning door AI zorgvuldigheid geboden.
Wijze van ontwikkelen bij de politie
Het bovenstaande laat zien dat een doordachte aanpak nodig is om de kansen van AI
gebruik bij de politie op een verantwoorde wijze te gaan realiseren. De politie heeft
hiertoe onder meer het Nationaal Politielab AI opgericht om het onderzoek en de verdere
ontwikkeling van AI binnen de organisatie te stimuleren. Dit lab is een structureel
meerjarig samenwerkingsverband van politie en Universiteiten in het ICAI (Innovatie
Centrum voor Artificiële Intelligentie4) verband. Hier wordt onderzocht hoe AI op de juiste wijze kan bijdragen aan de effectiviteit
van de politie nu en in de toekomst. Door de samenwerking met de wetenschap wordt
hoogwaardige kennis binnen gehaald. In het Politielab worden stapsgewijs concepten
ontwikkeld op het gebied van AI, die toegepast kunnen worden binnen diverse processen
of voor diverse onderwerpen. Daarbij wordt zorgvuldig afgewogen op welke processen
AI een nuttige toevoeging kan zijn en welke waarborgen daar voor nodig zijn. Een voorbeeld
is het AI-concept achter de eerder genoemde meldingen van internetoplichting, waarin
natuurlijke tekst wordt geanalyseerd en wordt doorgevraagd op missende elementen.
Dit concept wordt klein gestart op alleen internetoplichting maar kan, als de ervaringen
positief zijn en geleerde lessen zijn toegepast, ook breder worden gebruikt voor het
(semi)automatisch afhandelen van meldingen van andere onderwerpen. Het voordeel van
het op deze wijze in huis hebben van de beste technische expertise is dat de toepassing
die wordt ontwikkelt past bij de organisatie die de politie wil zijn. Zo heeft men
in het genoemde voorbeeld gekozen om de informatie-extractie uit natuurlijk tekst,
de juridische toetsing van de melding en de optimalisatie van de vraagvolgorde los
van elkaar te bouwen. Dit voorkomt één grote black box waar niet transparant is wat
de relatie is tussen de tekst van de melding en de aanvullende vragen of het getoonde
advies. Het systeem laat zien wat de basale observaties uit tekst waren en hoe deze
juridisch zijn geïnterpreteerd. De meeste kant en klare oplossingen van externe leveranciers
bieden deze transparantie niet.
Ook worden er diverse onderzoeken uitgevoerd naar nieuwe vraagstukken die opkomen
wanneer er AI toepassingen worden ingezet. Zo doet het lab onderzoek naar uitlegbare
en transparante AI en naar de ethische aspecten van AI toepassing binnen de politiefunctie.
Er is daarnaast aandacht voor sociale aspecten, zoals de vraag hoe AI politiemensen
kan ondersteunen in hun taakuitvoering en wat de impact daarvan is op de werkbeleving.
Over de uitkomsten van onderzoek op het gebied van AI dat bij de politie wordt gedaan
wordt in wetenschappelijke tijdschriften gepubliceerd.5 Dit draagt bij aan transparantie en het maatschappelijke debat.
Naast de genoemde intensieve samenwerking met de wetenschap zoekt de politie samenwerking
met andere partijen, onder andere op het gebied van ethische richtlijnen. Zo werkt
de politie met diverse internationale partners, neemt de politie deel in het ECP,
Platform voor Informatiesamenleving en is de politie op 8 oktober 2019 aangesloten
bij de Nederlandse AI Coalitie. De politie neemt verder deel aan de pilot Ethics guidelines for trustworthy AI
6 van de High-Level Expert Group on AI van de Europese Commissie en aan het Transparantielab
van het Ministerie van Binnenlandse Zaken.
Kwaliteitskader big data – versterken van de fundamenten
Voor de politie is het vertrouwen van de maatschappij in het gebruik van algoritmes
en AI door de politie een belangrijk uitgangspunt. Zorgvuldige ontwikkeling en toepassing
van concepten met aandacht voor privacy, technische ontwikkelstandaarden (waaronder
de bescherming en veiligheid van het ontwikkelde algoritme of AI) en ethische aspecten
zijn daarbij van belang. De richtlijnen voor het toepassen van algoritmes door de
overheid uit de brief van 8 oktober 20197 komen bij de politie terug in het interne kwaliteitskader big data dat de politie
samen met het OM in het kader van het programma Toekomstbestendig Opsporen en Vervolgen
recent heeft opgesteld. Het kwaliteitskader kan gezien worden als een instrument dat
zorgdraagt voor een zuivere ontwikkeling en toepassing (zowel juridisch als technisch)
van algoritmes en data analysemethoden in de opsporingsketen. Het kwaliteitskader
zal na het doorlopen van het interne proces van goedkeuring in uitvoering worden gebracht.
De werkwijze van de politie op het gebied van het ontwikkelen en toepassen van algoritmes
en AI wordt de komende tijd conform dit kwaliteitskader ingericht. Deze werkwijze
zal doorlopend worden geëvalueerd en verbeterd indien nodig.
In het kwaliteitskader wordt aandacht besteed aan de vraag wie verantwoordelijk is
voor de AI-toepassing en op basis van welke wettelijke en juridische grondslagen de
ontwikkeling wordt gedaan. Er moet gemotiveerd worden waarom en welke data er wordt
gebruikt en er moet gekeken worden naar de kwaliteit van de gebruikte data. Daarbij
komt bijvoorbeeld ook de vraag naar voren of kan worden volstaan met geanonimiseerde
data en op welke wijze privacy by design wordt toegepast. Verder wordt nadrukkelijk aandacht besteed aan de noodzaak om bias
te verminderen, of om in het gebruik rekening te houden met de kans dat er bias aanwezig
is. Bij de inzet van AI toepassingen wordt binnen de werkwijze van het kwaliteitskader
daarnaast gekeken naar ethische en juridische vraagstukken en dilemma’s die naar voren
kunnen komen. Ik zal deze gebruiken bij het opstellen van de beleidskaders voor de
herziening en modernisering van de Wet politiegegevens.
Daarnaast wordt aangesloten bij nationale en internationale ontwikkelingen op het
gebied van richtlijnen en kaders in verband met mogelijke geschiktheid voor toepassing
binnen de politie.
Toezicht op AI-inzet bij de politie
Het politiewerk is leidend bij (data-gedreven) AI toepassingen binnen de politie.
AI is een technologisch hulpmiddel waarmee dat werk beter, sneller of effectiever
kan worden gedaan. Het toezicht op de ontwikkeling en de inzet van AI bij de politie
is dan ook geregeld zoals gebruikelijk bij toezicht op de politie. Uitgangspunt daarbij
is dat de politie haar eigen strengste criticaster is. Zoals gemeld in mijn brief
van 5 december 2018 hanteert de politie een «three lines of defence»-model in haar
interne toezicht, waarbij de eerste lijn wordt vervuld vanuit het lijnmanagement,
de tweede lijn door de korpscontroller en de derde lijn door de afdeling Concernaudit.8 Dit interne toezicht arrangement geldt ook voor toepassingen die gebruik maken van
AI.
Ook de externe toezichthouders op de politie spelen een rol bij het toezicht op inzet
van AI door de politie. Voor een uitgebreid overzicht van het toezicht en waarborgen
die geregeld zijn voor de politieorganisatie verwijs ik u naar mijn brief van 5 december
2018.9 Specifiek relevant voor de inzet van AI is dat de Inspectie JenV toezicht houdt op
de taakuitvoering van de politie. Indien er bij de taakuitvoering AI toepassingen
worden ingezet valt deze inzet daarmee onder het mandaat van de Inspectie.
Voor zover AI toepassingen gebruik maken van persoonsgegevens oefent de Autoriteit
Persoonsgegevens de toezichthoudende rol uit ten aanzien van de zorgvuldige omgang
met deze data. In de Algemene Verordening Gegevensbescherming, Wet politiegegevens
en Wet justitiële en strafvorderlijke gegevens is op hoofdlijnen aangegeven wanneer
een Data protection impact assessment (DPIA), ook wel Gegevensbeschermingseffectbeoordeling
(GEB), verplicht is. Een DPIA wordt uitgevoerd voorafgaand aan de gegevensverwerking
ten behoeve van de ontwikkeling en implementatie van een toepassing. Ten slotte kan
de Auditdienst Rijk door mij worden gevraagd om audits uit te voeren op het beheer
van de politie. Daarmee kan ik de Auditdienst Rijk vragen om een audit uit te voeren
waarbij ook AI toepassingen kunnen worden betrokken.
Het is zaak voor de politie om gebruik te maken van de kansen die door AI geboden
worden voor betere opsporing, handhaving, dienstverlening en bedrijfsvoering, maar
ook omdat criminelen geavanceerde AI gebruiken voor het plegen van strafbare feiten.
Dat moet zorgvuldig gebeuren. Ik geloof daarbij in de aanpak die wordt gekozen in
het Nationaal Politielab AI, waarbij de verdere ontwikkeling van AI-toepassingen binnen
de politie wordt gestimuleerd en er ook stapsgewijs nieuwe concepten worden ontwikkeld
in nauwe samenwerking met de wetenschap. Ook internationaal wordt gekeken naar de
wijze waarop de politie in Nederland de ontwikkeling van AI toepassingen en het onderzoek
naar de ethische aspecten daarvan vormgeeft. Het is zaak dat de politie op dit vlak
een voorloper blijft.
De Minister van Justitie en Veiligheid,
F.B.J. Grapperhaus
Ondertekenaars
-
Eerste ondertekenaar
F.B.J. Grapperhaus, minister van Justitie en Veiligheid
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.