Brief regering : Opschaling algoritmetoezichthouder (Directie CoördinatieAlgoritmes bij de AP)
26 643 Informatie- en communicatietechnologie (ICT)
32 761
Verwerking en bescherming persoonsgegevens
Nr. 1110
BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 21 december 2023
Sinds januari 2023 heeft de Autoriteit Persoonsgegevens (AP) nieuwe coördinerende,
signalerende en ondersteunende taken in het toezicht op algoritmes, zoals afgesproken
in het coalitieakkoord (bijlage bij Kamerstuk 35 788, nr. 77). Deze taken zijn aanvullend op haar reguliere toezicht op de bescherming van persoonsgegevens.
De nieuwe taken zijn binnen de AP ondergebracht bij de Directie Coördinatie Algoritmes
(DCA). Door middel van deze brief informeer ik uw Kamer, mede namens de Minister van
Economische Zaken en Klimaat (EZK) en de Minister voor Rechtsbescherming, over de
voortgang en activiteiten van de DCA in 2024.
Het afgelopen jaar werd duidelijk dat algoritmes en artificiële intelligentie (AI)
onverminderd aanwezig zijn in onze maatschappij. Het toenemende gebruik van AI kan
bijdragen aan het creëren van economische en maatschappelijke waarde, maar brengt
ook nieuwe opgaven met zich mee. Dit geldt bijvoorbeeld voor het algoritme dat werd
ingezet door het Ministerie van Buitenlandse Zaken bij een visumaanvraag1 of het algoritme van Dienst Uitvoering Onderwijs (DUO) om fraude bij studiefinanciering
op te sporen; hierop heeft de AP op grond van de Algemene verordening gegevensbescherming
(AVG) actie ondernomen.2 Daarnaast brengt de opkomst van generatieve AI,3 en in het bijzonder ook de bekende krachtige taalmodellen (ook wel Large Language Models (LLM’s)) als ChatGPT, nieuwe kansen en uitdagingen met zich mee in een groot aantal sectoren
en domeinen.4 Scherp en helder toezicht hierop is een belangrijke randvoorwaarde om te zorgen dat
de kansen die deze zich in rap tempo ontwikkelende innovaties bieden op een verantwoorde
manier worden benut.5 Heldere communicatie richting burgers en marktpartijen, het delen van informatie
over risico’s en incidenten tussen toezichthouders en in gezamenlijkheid optrekken
is daarbij van grote meerwaarde: AI en algoritmes houden zich namelijk vaak niet aan
de grenzen van een bepaald domein, sector of wetgeving.
Deze brief gaat specifiek in op de activiteiten van de DCA. Ik vind het belangrijk
te benadrukken dat algoritmetoezicht niet in een juridisch vacuüm valt. De handhaving
van wet- en regelgeving bij algoritmegebruik is ook al onder de bestaande bevoegdheden
van verschillende toezichthouders mogelijk. Zo kan de Autoriteit Consument & Markt
(ACM) ingrijpen wanneer algoritmes worden gebruikt om consumenten te misleiden en
kan de Rijksinspectie Digitale Infrastructuur (RDI) al toezien op algoritmes die worden
gebruikt voor de stabiliteit en veiligheid van telecomnetwerken. De AP zelf heeft
al ruime handhavende bevoegdheden vanuit de AVG om in te grijpen wanneer een (voorgenomen)
verwerking van persoonsgegevens door algoritmes niet rechtmatig, behoorlijk en/of
transparant plaatsvindt. Bijvoorbeeld door het bevestigen van normen, het geven van
waarschuwingen, stilleggen van verwerkingen of het opleggen van boetes. Het AVG-toezicht
op algoritmes en AI is één van de belangrijkste thema’s van de AP en is vanaf 2023
ook versterkt. In de eerste Risicoanalyse Algoritmes Nederland (RAN) heeft de AP aanbevolen
om voor hoog risico toepassingen het invullen van het algoritmeregister door overheidsinstellingen
in Nederland verplicht te stellen. In de RAN vraagt de AP ook aan private organisaties
met een significant maatschappelijke taak om proactief stappen te zetten richting
meer transparantie en uitlegbaarheid. De AP volgt momenteel nadrukkelijk de voortgang
op transparantie en uitlegbaarheid van algoritmen binnen de overheid. Daarnaast werken
de RDI en de AP in aanloop naar de vaststelling van de AI-verordening samen met andere
toezichthouders om het toezicht op AI-systemen vorm te geven en hierover advies uit
te brengen. Nu er een politiek akkoord is bereikt is over de AI-verordening biedt
dit een concreet, helder en toekomstbestendig kader om organisaties actief aan te
spreken op de noodzakelijke beheersing van hoog-risico AI-toepassingen.
In de inrichtingsnota6 heb ik uw Kamer toegezegd om in het najaar van 2023 nader in te gaan op het plan
om budget te alloceren en kaders te stellen waarmee de AP in 2024 de DCA kan opschalen.
Vanaf 2024 is er sprake van een verdubbeling van de financiële middelen: van 1 miljoen
in 2023 naar 2 miljoen euro in 2024.7 Alle in deze brief beschreven activiteiten zijn belegd bij de DCA als directie binnen
de AP.
Samenvattend zal de AP zich met haar activiteiten en opschaling van de DCA blijven
richten op de bestaande doelen: (I) het signaleren, analyseren en rapporteren van
algoritmerisico’s; II) het versterken van samenwerking tussen toezichthouders en;
III) het komen tot guidance, gezamenlijke uitleg en overzicht in normen en kaders),
waarbij deze doelen voor 2024 verder zijn aangescherpt.
De aanscherpingen betreffen aanvullende activiteiten die gericht zijn op het verder
verdiepen van de bestaande doelen. Dan gaat het om proactieve signalering en versterking
van de kennispositie, waarbij onder andere informatiekanalen worden opgezet om sneller
op de hoogte te zijn van risico’s en effecten van algoritmes. Ook heeft de DCA bij
de AP tot taak om in kaart te brengen welke publieke loketten er zijn om algoritme-gerelateerde
problematiek, zoals discriminatie, te melden, en in hoeverre burgers loketten weten
te vinden. Tot slot zal met bijvoorbeeld discussiedocumenten en bijeenkomsten ervoor
worden gezorgd dat het algoritmetoezicht in Nederland wordt geïnformeerd en aansluit
op ontwikkelingen op het gebied van internationale verdragen, wetgeving, normen, en
standaarden die zullen gelden voor de ontwikkeling of het gebruik van algoritmes.
Ook is het belangrijk dat deze inzichten en bevindingen hun weg vinden bij de Europese
en internationale ontwikkelingen. Deze informatie zal in principe ook publiekelijk
toegankelijk zijn.
In deze brief ga ik allereerst in op de beschikbare financiële middelen en de kaders
waarmee de AP de activiteiten van de DCA verder kan opschalen. Daarbij wordt ingegaan
op de doelen waarop de DCA zich vanaf januari 2024 kan richten, evenals de activiteiten
die worden ondernomen om deze doelen te behalen. Vervolgens heb ik de AP gevraagd
verslag te doen van de voortgang van de activiteiten van de DCA in 2023.
Tot slot besteed ik aandacht aan de verschillende, in de inrichtingsnota algoritmetoezichthouder
aangekondigde, vervolgstappen. Dit gaat in het bijzonder om het voeren van een structurele
dialoog met alle toezichthouders in het digitale domein. Daarnaast gaat het over het
verkennen in hoeverre de ingezette trajecten rondom het verder reguleren van artificiële
intelligentie (AI) nieuwe toezichtscomponenten bevatten en in hoeverre de AP hierin
een rol zou kunnen spelen.8
1. Doelen en activiteiten van de DCA bij de AP vanaf 2024
In het kader van de opschaling van de DCA door de AP zal ik ingaan op de aangescherpte
doelen en aanvullende activiteiten waarop de DCA zich vanaf januari 2024 zal richten.
Over deze aangescherpte doelen is overeenstemming bereikt met de AP. Deze zijn onder
meer tot stand gekomen op basis van de opgedane kennis en ervaringen van de AP in
2023 en de expertsessies die op 31 mei jl. hebben plaatsgevonden met 36 deskundigen
(waaronder wetenschappers, toezichthouders en vertegenwoordigers van ngo’s en bedrijven)
uit verschillende domeinen en sectoren.
Tijdens de expertsessies werd door de aanwezige experts aangegeven dat de DCA zich
moet blijven richten op de bestaande doelen (zie tabel in bijlage 1). Dit onder meer
vanwege het budget (2 miljoen euro in 2024) en de ambitieuze omvang van de bestaande
doelen. Met de AP is overeenstemming bereikt over het feit dat het uitgangspunt blijft
om domein-overstijgende activiteiten te ondernemen die erop zijn gericht het bestaande
toezichtslandschap en de bescherming van de grondrechten bij de ontwikkeling en inzet
van algoritmes te versterken. De bestaande bevoegdheden van andere (sectorale) toezichthouders
blijven hierbij intact.
Voortgang en aangescherpte doelen 2024
In lijn met de inrichtingsnota algoritmetoezichthouder zijn de volgende (aangescherpte)
doelen voor 2024 geformuleerd op basis waarvan de AP de DCA zal opschalen en activiteiten
zal ondernemen:
I. Het proactief signaleren en analyseren van sectoroverstijgende en overkoepelende risico’s
en effecten van de ontwikkeling en inzet van algoritmes en het verzamelen en delen
van kennis daarover;
II. Het optimaliseren van (bestaande) samenwerkingen met colleges, markttoezichthouders
en rijksinspecties, en het verder in kaart brengen van overkoepelend toezicht op het
gebied van algoritmes en AI;
III. Het komen tot gezamenlijke normuitleg en guidance en het scheppen van overzicht in
wettelijke en andere kaders op het vlak algoritmes en AI.
Sinds haar start in januari van dit jaar heeft de DCA voortgang geboekt op de in de
inrichtingsnota geformuleerde doelen voor 2023. Hieronder doet de AP verslag van de
voortgang op de doelen van de DCA in 2023 en de aanvullende activiteiten die de DCA
in 2024 zal verrichten.
Voortgang DCA doel I (signalering van risico’s) in 2023
In 2023 is het netwerk met organisaties die zich met algoritmerisico’s en algoritmetoezicht
bezighouden, versterkt en vergroot in binnen- en buitenland. In dit netwerk worden
sectoroverstijgende signalen en kennis gedeeld met toezichthouders, wetenschappers,
experts, burgerrechtenorganisaties, publieke en private organisaties en andere instanties
in binnen- en buitenland. Dit netwerk is noodzakelijk om risico’s en effecten te kunnen
signaleren, analyseren en hierover te kunnen rapporteren. Ook heeft de directie een
nieuwe rapportagecyclus opgezet om kennis structureel en met een breed publiek te
delen; de RAN. De eerste RAN is in juli 2023 verschenen en wordt tweemaal per jaar
in het Nederlands en Engels gepubliceerd. De tweede editie verschijnt in december
2023 en zal door de AP aan uw Kamer worden aangeboden.
Aanvullende activiteiten in 2024 onder doel I
• Om sectoroverstijgende risico’s en effecten beter en meer structureel te kunnen signaleren,
analyseren en kennis daarover te delen zal de DCA zich richten op het opzetten van een structuur van proactieve signalering tussen colleges, markttoezichthouders en rijksinspecties. Aangezien dit één van de
hoofddoelen behelst, kan het proactief ontvangen van signalen een meerwaarde bieden.
Op deze manier ontstaat er een (gedeeld) samenhangend en vollediger beeld van de sectoroverstijgende
risico’s, trends en ontwikkelingen rondom algoritme-inzet in Nederland. Dit stelt
alle toezichthouders die te maken krijgen met algoritmes beter in staat om binnen
hun eigen mandaat en bevoegdheden effectief toezicht te houden op algoritmes.
• Ook zal de DCA zich inzetten om de kennispositie van de DCA verder te versterken. Dit betreft zowel het uitbreiden van het team met diverse soorten expertise als
ook het uitbreiden van het verzamelen en inzichtelijk maken van informatie over (de
snelle ontwikkeling van) algoritmes en algoritmetoezicht.
Voortgang DCA doel II (versterken van samenwerkingen) in 2023
De DCA heeft zich ingespannen om andere colleges, markttoezichthouders en rijksinspecties
te raadplegen, te betrekken en samenwerking betreffende algoritmetoezicht te versterken.
Waar mogelijk is daarbij bijgedragen aan bestaande structuren, zoals de Werkgroep
Toezicht op AI, om het toezichtslandschap zo breed mogelijk te betrekken. Ook voor
het adviseren op en uitvoering geven aan het toezicht op nieuwe wetgeving is geïnvesteerd
in uitbreiding van de samenwerking. Daarnaast is het Samenwerkingsplatform Digitale
Toezichthouders (SDT) uitgebreid met een Algoritme en AI-onderdeel dat samenwerking
en (bestuurlijke) afstemming tussen een brede groep toezichthouders faciliteert. Tot
slot heeft de DCA bij een brede groep toezichthouders een enquête uitgezet om algoritmerisico’s
en het toezicht daarop verder in kaart te brengen. De DCA zal in de aankomende RAN
rapporteren.
Aanvullende activiteiten in 2024 onder doel II
• De DCA zal zich richten op het uitvoeren van een inventarisatie van de bestaande loketten om meldingen te doen over algoritmegerelateerde problematiek. Specifiek zal hierbij
de vindbaarheid voor burgers, het onderling doorverwijzen tussen toezichthouders en
mogelijke kansen voor versterking worden belicht. Uit de expertsessies die eind 2022
plaatsvonden9 kwam duidelijk naar voren dat een nieuw loket voor de algoritmetoezichthouder mogelijk
leidt tot een overschot aan loketten (de zogenoemde «lokettenjungle»). Bovendien is
niet altijd meteen duidelijk of problematiek algoritmegerelateerd is. Wel kwam uit
de expertsessies van 31 mei naar voren dat het van meerwaarde kan zijn voor burgers
en organisaties als er een overzicht wordt gemaakt van de huidige loketten waar men
terecht kan met vragen en klachten over algoritmes. Daarom zal de DCA zich focussen
op het samenstellen van een overzicht van bestaande loketten en onderzoeken in hoeverre
burgers deze nu kunnen vinden om klachten over algoritmes in te dienen. Dit sluit
ook goed aan bij de al ingezette activiteit om (lacunes in) het toezichtslandschap
in kaart te brengen.
Voortgang DCA doel III (streven naar gezamenlijke normuitleg) in 2023
De DCA heeft vanuit haar activiteiten voor algoritmetoezicht diverse departementen
geadviseerd over de ontwikkeling van nieuwe kaders en regels, waaronder ook de AI-verordening.
Daarnaast zijn door de DCA in verschillende fora, zowel nationaal als internationaal,
bijdragen geleverd om het toezicht op algoritmes en relevante ontwikkelingen op dat
gebied toe te lichten.
Aanvullende activiteiten in 2024 onder doel III
• De DCA zal zich richten op het komen tot (laagdrempelige) voorlichting gericht op gebruikers van algoritmes en personen/groepen die potentieel daardoor worden
geschaad. Juist voor een toezichthouder die zich bezighoudt met een technologisch
onderwerp dat zich in rap tempo ontwikkelt en potentieel van grote impact kan zijn
op de samenleving en het leven van burgers is het van belang om interactie met de
samenleving aan te gaan op dit onderwerp. Deze voorlichting zal gericht zijn op gebruikers
van algoritmes, zoals generatieve AI, en personen of groepen die potentieel worden
geraakt door algoritmegebruik.
• Omdat de ontwikkelingen op het gebied van verantwoorde ontwikkeling en inzet van algoritmes
voor een belangrijk deel ook op Europees en internationaal niveau plaatsvinden, zal
de DCA een bijdrage leveren aan de aansluiting op internationale verdragen, wetgeving, normen, guidance en standaarden. Enerzijds gaat het erom dat het algoritmetoezicht in Nederland op deze ontwikkelingen
wordt voorbereid en erop aansluit. Daarin zal de DCA een bijdrage leveren met bijvoorbeeld
workshops en publicaties. Anderzijds zal de DCA inzichten en bevindingen die in Nederland
worden opgedaan inbrengen in internationale fora, met het oog op de ontwikkeling van
die internationale kaders.
2. Vervolgstappen algoritmetoezicht
Naast de opschaling van de DCA – worden nog andere stappen gezet om het toezichtlandschap
op algoritmes te versterken en verder vorm te geven. Ik zal daarom nader ingaan op
de structurele dialoog die het kabinet voert met de digitale toezichthouders en de
gedachtevorming rondom de potentiële rol van de AP bij relevante trajecten die erop
gericht zijn algoritmes verantwoord in te zetten.
Gezien de hoeveelheid Europese wet- en regelgeving die de komende jaren zal worden
geïmplementeerd of in werking treedt – zoals onder meer de Europese AI-verordening,
Data-verordening (DA) en Digitale Dienstenverordening (DSA) – is het van belang om
de samenhang rondom het toezicht te bewaken. Uit dit scala aan verordeningen binnen
het digitale domein komen verschillende soorten toezicht voort die qua governance
en systematiek kunnen verschillen. Juist daarom is het van groot belang om een goede
afstemming te hebben tussen toezichthouders en het kabinet en hierbij te waken voor
de onderlinge samenhang. Consistent en samenhangend toezicht is, vanuit het perspectief
van zowel ondertoezichtgestelden als toezichthouders, essentieel. Over deze onderwerpen
sprak ik – in gezamenlijkheid met ook de Minister voor Rechtsbescherming en EZK –
dit jaar meermaals met zeven digitale toezichthouders. Dit betrof de vier leden van
het Samenwerkingsplatform Digitale Toezichthouders (SDT): de ACM, de Autoriteit Financiële
Markten (AFM), de AP, het Commissariaat voor de Media (CvdM) en daarnaast het College
voor de Rechten van de Mens (CRM), De Nederlandsche Bank (DNB) en de RDI. De uitkomsten
van mijn gesprek met de digitale toezichthouders van 27 maart jl., heb ik in het tweede
kwartaal van dit jaar met uw Kamer gedeeld.10
De noodzaak tot samenwerking en brede afstemming tussen toezichthouders binnen het
digitale domein werd breed onderschreven door toezichthouders. Aan deze structurele
dialoog is op 12 juli jl. en 1 december jl. een vervolg gegeven, waarbij van gedachten
is gewisseld over het toezicht op AI en de aankomende AI-verordening. Dit gesprek
zal ook in 2024 worden voortgezet.
a. Verkennen (potentiële) rol DCA in relevante trajecten
In 2023 heeft het kabinet verder verkend in hoeverre ingezette trajecten rondom algoritmes
behulpzaam zijn bij het nader vormgeven van het algoritmetoezicht. Het gaat hier in
het bijzonder om het algoritmeregister, het implementatiekader voor de inzet van algoritmen
(IKA), een mensenrechtentoets en periodieke audits.
i. Het algoritmeregister
Eind december 2022 lanceerde ik het nationaal algoritmeregister.11 Op dit moment geldt er nog geen wettelijke verplichting voor het registreren van
algoritmes door overheden. Zoals benoemd in de verzamelbrief «algoritmes reguleren»,
die ik voor het zomerreces met uw Kamer deelde, zal een wetsvoorstel om te komen tot
een nationale aanvullende registratieverplichting in samenhang met de Europese AI-verordening
worden bezien.12 Dit betekent dat eventuele (nieuwe) toezichtstaken, zoals het mogelijk controleren
of overheden voldoen aan bepaalde registratieverplichtingen, hiermee in overeenstemming
dienen te worden gebracht. Momenteel bevat het algoritmeregister meer dan 235 algoritmes.
Dit verschaft toezichthouders, zoals de DCA bij de AP, al inzichten in verschillende
aspecten die een rol spelen bij het algoritme-inzet van overheden, bijvoorbeeld mogelijke
risico’s en maatregelen om die risico’s te verkleinen.
ii. Het Implementatiekader voor de Inzet van Algoritmen (IKA)
Op 7 juli jl. deelde ik de eerste versie van het IKA met uw Kamer.13 Deze versie wordt op dit moment verder doorontwikkeld. Dit betekent dat het IKA wordt
geactualiseerd en aangepast op basis van suggesties voor verbeteringen, nieuwe normenkaders
of wetgeving (zoals de AI-verordening). Dit betreft een doorlopend proces. De DCA
heeft kennis en inzichten gedeeld om relevante wettelijke kaders en normen te inventariseren
en daaraan uitleg te geven in aanloop naar de eerste versie van het IKA.
iii. Mensenrechtentoets (voor algoritmes)
Een mensenrechtentoets (zoals het Impact Assessment voor Mensenrechten bij de inzet
van Algoritmes: IAMA) is een middel dat kan helpen om tijdig (voor het in gebruik
nemen of evalueren van een algoritmisch systeem) vast te stellen of wet- en regelgeving
is nageleefd en of algoritmes in lijn zijn met publieke waarden en grondrechten. Uw
Kamer heeft gevraagd om een mensenrechtentoets te verplichten voorafgaand aan de ingebruikname
van algoritmen wanneer die worden ingezet om evaluaties van of beslissingen over mensen
te maken.14 Zoals ik schreef in de verzamelbrief «algoritmes reguleren», wil ik een eventuele
verplichting van een mensenrechtentoets in samenhang zien met de nieuwe verplichtingen
die volgen uit de AI-verordening waarover nu nog over wordt onderhandeld in de triloog.
In de versies van de Raad en van het Europees Parlement is de bescherming van mensenrechten
verstevigd door de verplichting voor aanbieders van hoog-risico AI-systemen om mogelijk
risico’s op schending van fundamentele rechten in de verplichte risicoanalyse expliciet
mee te nemen. In afwachting van de AI-verordening heeft uw Kamer per motie van het
lid Dekker-Abdulaziz gevraagd om alle nieuwe algoritmes met een hoog risico worden
gebruikt een mensenrechtentoets (zoals een IAMA) te laten ondergaan.15 Hier zal ik – zoals toegezegd in de verzamelbrief «algoritmes reguleren» – uitvoering
aan geven door in ieder geval alle nieuwe hoog-risico AI-systemen in de zin van de
AI-verordening die binnen de Rijksoverheid worden gebruikt in het algoritmeregister
te laten registreren. Voor wat betreft het toezicht zijn (on)uitgevoerde mensenrechtentoets
mogelijk van meerwaarde voor de activiteiten die de DCA uitvoert, zoals bijvoorbeeld
het signaleren van risico’s en effecten van de ontwikkeling en inzet van algoritmes.
Dit perspectief zal ook worden meegenomen in het verkennen of vormgeven van de (wettelijke)
verplichting en controle op de uitvoering van de mensenrechtentoets en het controleren
daarvan.
iv. Onderzoek naar periodieke audits van algoritmes
Om de grip vooraf, tijdens en na het gebruik van algoritmes te versterken kunnen periodieke
audits (bijvoorbeeld op jaarbasis) een middel zijn om op systematische en frequente
basis het algoritmegebruik van overheden in kaart te brengen. Deze audits verplichten
(overheids)organisaties om hun algoritmes regelmatig te blijven evalueren en bieden,
bijvoorbeeld toezichthouders, inzage in algoritmegebruik en bieden daarnaast, onder
meer aan interne functionarissen in de organisatie en toezichthouders op die organisatie,
inzage in de daadwerkelijke inzet en risicobeheersing van algoritmes.
Eerder dit jaar schreef ik uw Kamer al over de mogelijkheden rondom audits op algoritmegebruik
door overheden. Toen gaf ik aan dat de Auditdienst Rijk (ADR) en Algemene Rekenkamer
al regelmatig (op eigen initiatief) onderzoeken starten naar algoritmegebruik bij
de (Rijks)overheid.16
De AI-verordening bevat bovendien verschillende verplichtingen die raken aan het uitvoeren
van audits rondom de ontwikkeling (aanbieders) en het gebruik van hoog-risico AI-systemen
(gebruikers).
In 2024 zal de wenselijkheid van het ontwikkelen van periodieke audits (voor bijvoorbeeld
overheidspartijen) worden onderzocht onder coördinatie van BZK. Hierbij zal ook aandacht
zijn voor alle ontwikkelingen die op dit moment binnen het (toezichts)landschap al
lopen op het gebied van audits voor (overheids)algoritmes. Deze audits zouden de grip
op het gebruik van algoritmes vooraf, tijdens en na het gebruik mogelijk (aanvullend)
kunnen waarborgen.
3. Tot slot
De DCA bij de AP zal zich ook in 2024 binnen haar coördinerende, signalerende en ondersteunende
taken blijvend richten op een betere bescherming en controle van publieke waarden
en grondrechten bij de ontwikkeling en inzet van algoritmes. Met bovenstaande acties,
de financiële impuls en aangescherpte doelen wordt het toezicht op algoritmes in samenhang
duurzaam versterkt.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
A.C. van Huffelen
Ondertekenaars
-
Eerste ondertekenaar
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties