Antwoord schriftelijke vragen : Antwoord op vragen van het lid El Abassi over het artikel ‘Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen’
Vragen van het lid El Abassi (DENK) aan de Minister van Justitie en Veiligheid over het artikel «Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen» (ingezonden 26 februari 2026).
Antwoord van Minister Van Weel (Justitie en Veiligheid) (ontvangen 30 maart 2026).
Zie ook Aanhangsel Handelingen, vergaderjaar 2025–2026, nr. 1376.
Vraag 1
Bent u bekend met het NRC-artikel «Politie stapte in stilte af van algoritme dat kans
op misdaad in buurten zou voorspellen»?1
Antwoord 1
Ja.
Vraag 2
Op basis van welke wettelijke grondslag werd dit predictive-policing-systeem toegepast
en kunt u aangeven welke specifieke bevoegdheden hierdoor feitelijk werden uitgebreid?
Antwoord 2
Het Criminaliteits Anticipatie Systeem (hierna: CAS) vergaarde zelf geen gegevens.
De gegevens waren afkomstig van eerder gedane aangiften van burgers en ondernemers.
Daarnaast werd tot en met 2022 gebruik gemaakt van omgevingsvariabelen2 van het CBS. De omgevingsvariabelen van het CBS waren geaggregeerd op wijkniveau
en bevatten geen persoonsgegevens.
De wettelijke basis voor het verkrijgen van aangiftegegevens door de politie is vastgelegd
in het Wetboek van Strafvordering (Sv). Artikel 161 Sv geeft iedere burger de bevoegdheid
om aangifte te doen van een begaan strafbaar feit. Artikel 163 Sv verplicht de politie
om de aangifte van een burger in ontvangst te nemen. De politie verkrijgt de gegevens
dus op basis van deze wettelijke ontvangstplicht.
Artikel 8 van de Wet politiegegevens vormde de grondslag voor de verwerking van bovenstaande
gegevens met het oog op de uitvoering van de dagelijkse politietaak.
Er is daarom geen sprake geweest van uitbreiding van bevoegdheden.
Vraag 3
In hoeveel gevallen zijn burgers gecontroleerd of benaderd zonder concrete verdenking
maar uitsluitend vanwege een verhoogd risicogebied of risicoscore?
Antwoord 3
De uitkomsten van het CAS gaven een waarschijnlijkheidsindicatie op een criminaliteitsthema
in een gebied, nooit op een persoon of bevolkingsgroep.
Bovendien vereisen individuele controles een eigen wettelijke grondslag en kunnen
deze niet op alleen een risicoscore worden gebaseerd. Er was dus altijd een concrete
aanleiding, op basis van aanvullende en actuele informatie en een menselijk oordeel
nodig, voordat dit leidde tot concrete inzet van de politie.
Vraag 4
Klopt het dat bij het criminaliteitsanticipatiesysteem (CAS) geen eenduidige doelen,
meetbare succescriteria en formele kwaliteitsstandaarden waren vastgesteld? Zo ja,
waarom is het systeem, en daarmee predictive policing als methode, desondanks langdurig
gebruikt om de aanpak van veelvoorkomende criminaliteit in bepaalde buurten te verbeteren?
Antwoord 4
In het algemeen geldt dat het moeilijk is om de resultaten van preventieve maatregelen
te meten. CAS is destijds ingezet vanuit de verwachting dat de beschikbare politiecapaciteit
gerichter kon worden ingezet als er meer informatie beschikbaar was over veelvoorkomende
criminaliteit in een bepaalde woonwijk. CAS heeft daar in verschillende teams een
positieve bijdrage aan geleverd. Er was echter onduidelijkheid over de exacte operationele
meerwaarde van CAS.
Anderhalf jaar geleden is de politie gestart met de verdere professionalisering van
haar AI-Governance, waaronder de doorlopende toetsing van de kwaliteit (juridisch,
technisch en ethisch) van haar algoritmes en AI-systemen. Na zorgvuldige afweging
en volgens de genoemde professionaliseringsslagen binnen de politie is gebleken dat
de voor CAS geformuleerde criteria niet meer voldeden aan de normen die tegenwoordig
worden gehanteerd. Er is daarom geconcludeerd dat de benodigde inspanningen voor het
oplossen van de tekortkomingen niet opwegen tegen de baten. In de laatste alinea van
mijn antwoord op vraag 10 geef meer uitleg over deze professionaliseringsslag.
Vraag 5
Zijn er vanuit betrokken partijen, zoals bijvoorbeeld mensenrechtenorganisaties of
burgers, bij de inzet van het CAS signalen gekomen dat dit systeem discriminatie in
de hand werkt? Zo ja, welke signalen waren dat?
Antwoord 5
De politie heeft geen signalen ontvangen dat er daadwerkelijk sprake was van discriminatie.
Er zijn wel zorgen geuit. Zo waarschuwde Amnesty International er voor dat CAS bestaande
vooroordelen in de maatschappij zou kunnen overnemen en versterken. Ook vond Amnesty
dat het onduidelijk was hoe het systeem tot bepaalde voorspellingen kwam, dat het
koppelen van grote hoeveelheden data uit verschillende bronnen een vorm van onrechtmatige
massasurveillance is en dat het onduidelijk was wat deze vorm van «predictive policing»
daadwerkelijk bijdroeg aan de veiligheid.
Vraag 6
In hoeverre kunt u uitsluiten dat in bepaalde wijken waarbij een relatief hoog percentage
bewoners met migratieachtergrond woont vaker onderwerp zijn geweest van toezicht door
dit systeem?
Antwoord 6
CAS was geen toezichtsysteem maar ondersteunde de basisteams bij het in kaart brengen
van criminaliteit in hun werkgebied. Het is wel mogelijk dat de uitkomst van de analyses
van CAS aanleiding heeft gegeven voor intensiever toezicht in een bepaalde woonwijk.
Het aantal aangiften van strafbare feiten en het soort strafbare feiten vormden de
basis voor de waarschijnlijkheidsindicatie op een bepaald criminaliteitsthema in die
wijk.
Vraag 7
Bent u ervan op de hoogte dat mensenrechtenorganisaties, waaronder Amnesty International,
al geruime tijd ernstige zorgen uiten over de discriminatoire en mensenrechtelijke
risico’s van predictive policing-systemen? Zo ja, waarom is er desondanks voor gekozen
om dit systeem gedurende tien jaar in stand te houden?3
Antwoord 7
Ja, daar ben ik van op de hoogte. Er is voor gekozen het CAS te gebruiken om gerichtere
inzet tegen veelvoorkomende criminaliteit mogelijk te maken. Het CAS heeft daar in
verschillende teams een positieve bijdrage aan gegeven door de informatiepositie rondom
de inzet van mensen en middelen te versterken. Zoals aangegeven in mijn antwoord op
vraag 3 gaven de uitkomsten van het CAS een waarschijnlijkheidsindicatie op een criminaliteitsthema
in een gebied, nooit op een persoon of bevolkingsgroep.
In die periode van 10 jaar is, mede naar aanleiding van die geuite zorgen, het algoritme
meerdere malen aangepast. In mijn antwoord op vraag 4 omschrijf ik uitgebreider wat
de overwegingen van de politie waren om te stoppen met CAS.
Vraag 8
Deelt u de opvatting dat predictive-policing-systemen die racisme of discriminatie
in de hand werken, uitgesloten moeten zijn binnen de Nederlandse politie?
Antwoord 8
Ja.
Vraag 9
Kunt u garanderen dat dergelijke algoritmische systemen die leiden tot etnisch profileren
of indirecte discriminatie niet worden ingezet?
Antwoord 9
Etnisch profileren is verboden. De inzet van systemen die (in)directe discriminatie
veroorzaken is niet toegestaan. Toepassing van algoritmische systemen vereist aantoonbare
rechtmatigheid en noodzakelijkheid, voorafgaande risicoanalyses, toetsing op vooringenomenheid
en strikte waarborgen. Mocht in de praktijk blijken dat een bepaald algoritme toch
tot vertekende, oneerlijke of zelfs discriminerende uitkomsten leidt, dan is de verwerking
onrechtmatig.
Vraag 10
Bent u bereid maatregelen te nemen om het gebruik van dergelijke systemen te beperken
of te verbieden? Zo nee, waarom niet?
Antwoord 10
De Europese AI-verordening (2024) biedt een specifiek en duidelijk wettelijk kader
als het gaat om AI-systemen. Ik zie op dit moment geen noodzaak om aanvullend op dit
wettelijk kader maatregelen te nemen. De AI-verordening kent een risicogebaseerde
aanpak waarbij AI-systemen worden onderverdeeld in een aantal categorieën, onder andere
de «hoog risico» categorie en de «onaanvaardbaar risico» categorie. Toepassingen die
in de laatstgenoemde categorie vallen zijn op basis van de AI-verordening verboden.
De inzet van systemen voor risicobeoordelingen van natuurlijke personen met het oog
op het plegen van strafbare feiten, uitsluitend op basis van profilering van de persoon
of op basis van een beoordeling van persoonlijkheidseigenschappen en kenmerken, valt
in de «onaanvaardbaar risico» categorie. De politie mag zo’n systeem dus niet gebruiken.
Systemen die bedoeld zijn om het plegen van een strafbaar feit of recidive te voorspellen,
vallen in de hoog risico categorie. Aan systemen in deze categorie worden extra, zeer
strenge eisen gesteld en de inzet van zo’n systeem moet omkleed worden met waarborgen.
Hierbij valt te denken aan eisen met betrekking tot risicobeheer, kwaliteit en relevantie
van datasets, technische documentatie en registratie, transparantie, menselijk toezicht,
nauwkeurigheid en beveiliging.
De politie toetst de kwaliteit van haar algoritmes en AI-systemen via een intern kwaliteits-
en risicoproces. Hiermee verkrijgt zij inzicht in eventuele risico’s en de maatregelen
die hierop te treffen zijn. De politie voert dit proces uit op al haar algoritmes
en AI-systemen die (hoog) risicovol zijn. Dit voert de politie ook getrapt uit voor
oudere algoritmes en AI-systemen. De trajecten waarin dit al heeft plaatsgevonden
en die openbaar kunnen worden, staan gepubliceerd in het Algoritmeregister.
Ondertekenaars
D.M. van Weel, minister van Justitie en Veiligheid
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.