Brief regering : Inrichtingsnota algoritmetoezichthouder
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 953 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 22 december 2022
Achtergrond
Op 15 december 2021 is in het coalitieakkoord (Bijlage bij Kamerstuk 35 788, nr. 77) aangekondigd dat zal worden geregeld dat algoritmen gecontroleerd worden op transparantie,
discriminatie en willekeur en dat een algoritmetoezichthouder dit bewaakt. In de budgettaire
bijlage staan hiervoor vanaf 2023 middelen toegewezen aan de Autoriteit Persoonsgegevens
(AP).1 De AP ontvangt voor deze opgave vanaf 2023 1 miljoen euro oplopend naar structureel
3,6 miljoen euro in 2026.
Met deze inrichtingsnota wordt de invulling van de geformuleerde doelen bij de AP
belegd, vanaf januari 2023 start de algoritmetoezichthouder bij de AP met activiteiten
om deze doelen te verwezenlijken. Het gaat in eerste instantie om het stimuleren van
(bestaande) samenwerking, het signaleren en analyseren van sectoroverstijgende risico’s
en het bevorderen van gezamenlijke normuitleg in de toezichtspraktijk ten aanzien
van algoritmen. Vervolgens wordt bezien welke toezichtinstrumenten wenselijk zijn.
Dit zal een langduriger traject zijn, vanwege de (mogelijke) wetgeving die daarvoor
nodig is. Om tot een verantwoorde inzet van algoritmen te komen zetten we daarbij
voor de overheid nu al stappen door onder meer een publiek algoritmeregister op te
zetten en te werken aan een implementatiekader voor algoritmen.2 Tot slot kan de AP, naast de taken die de algoritmetoezichthouder zal krijgen, op
basis van de Algemene verordening gegevensbescherming (AVG) al boetes en andere sancties
opleggen in het geval het algoritmen betreft die (onrechtmatig) persoonsgegevens verwerken.
Ook dit toezicht wordt in 2023 door het kabinet versterkt.
Vanwege mijn rol als coördinerend bewindspersoon op het digitaliseringsdomein stuurt
het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) de (beleidsmatige)
inrichting van de algoritmetoezichthouder aan. In deze relatie vervult BZK de rol
van opdrachtgever en is de AP is uitvoerder van deze opgave. De Minister voor Rechtsbescherming
is verantwoordelijk voor het beheer en het toezicht op de financiële middelen verstrekt
uit de het begrotingsartikel van de AP in de Rijksbegroting van het Ministerie van
Justitie en Veiligheid (JenV).
In deze brief informeer ik uw Kamer over het verloop en de uitkomsten van de verkenning.
Vervolgens ga ik in op de doelen en hoe de AP die activiteiten zal gaan inrichten
waarop de algoritmetoezichthouder zich per 1 januari 2023 zal richten. Tot slot ga
ik nader in op de vervolgstappen die in gezamenlijkheid met betrokkenen worden genomen
in het kader van de opschaling van de algoritmetoezichthouder.
Belang verantwoorde inzet algoritmen en AI
De afgelopen jaren was er in verschillende domeinen sprake van serieuze problemen
met de inzet van algoritmen, waarvan de kinderopvangtoeslagenaffaire en (zelflerende)
werving- en selectie algoritmen die in sommige gevallen leidden tot uitsluiting en
discriminatie, bekende exponenten zijn.3 De oprichting van een algoritmetoezichthouder komt voort uit de ambitie om publieke
waarden en grondrechten bij de inzet van algoritmen beter te beschermen. Om meer grip
te krijgen op algoritmegebruik is meermaals onderstreept dat het toezicht op algoritme(gebruik)
een structureler karakter dient te krijgen.4. De motie van het lid Van Baarle (DENK) c.s. over het controleren van (overheids-)algoritmen
op transparantie, discriminatie en willekeur, en het versterken van de algoritmewaakhondfunctie
bij bestaande toezichthouders, is in dit kader ook van belang.5 Daarbij werd de grote waarde van toezicht en controle op het gebruik van algoritmen
binnen de rijksoverheid dit jaar nogmaals onderstreept door de Auditdienst Rijk (ADR).
Zij geeft in haar rapport onder andere aan dat er vaak tijdens het ontwikkelproces
van algoritmen vooraf geen (duidelijke) criteria worden gesteld waaraan algoritmen
moeten voldoen. Ook ontbreekt het veelal aan het inrichten van controles achteraf.
Een continu leer- en verbeterproces is daarom nodig om vat te krijgen op de inzet
van (overheids)algoritmen.6 Het in 2021 verschenen rapport van de Wetenschappelijke Raad voor het Regeringsbeleid
(WRR) wijst daarnaast op de groeiende rol van de overheid, en daarmee ook van wetgeving
en toezicht, naarmate complexere algoritmische systemen – die ook wel als Artificiële
Intelligentie (AI) bekendstaan – meer ingebed raken in de gehele samenleving.7
De uitdagingen omtrent toezicht op algoritmen en AI nu en in de toekomst zijn daarmee
breder dan alleen toezicht op de overheid. Alle toezichthouders (waarmee in deze nota
de colleges, markttoezichthouders en rijksinspecties worden aangeduid) zullen moeten
kunnen omgaan met de impact die AI als systeemtechnologie8 met zich zal meebrengen. De maatschappelijke gevolgen bij onrechtmatig gebruik van
algoritmen kunnen groot zijn en de negatieve effecten kunnen een breed scala aan burgers,
bedrijven en organisaties treffen. Soms blijft dit onopgemerkt door een gebrek aan
transparantie, wat de rechtsbescherming van individuen in de weg staat. Aan de andere
kant dragen algoritmen dagelijks bij aan bijvoorbeeld betere dienstverlening, het
stellen van diagnoses in de gezondheidzorg of het wijzen van mensen op regelingen
waar ze recht op hebben. En worden veel algoritmen ook gebruikt in het fysieke domein
voor effectief onderhoud en het opsporen van illegale activiteiten. De ontwikkeling
van innovatieve toepassingen van AI en algoritmen in lijn met onze regels, normen
en waarden is daarom essentieel. Hierop moet helder toezicht worden ingericht, vooraf,
tijdens en na het gebruik.
Inrichten algoritmetoezichthouder
De algoritmetoezichthouder signaleert en analyseert risico’s en effecten over alle
sectoren en domeinen van de samenleving heen. Daarbij wordt samengewerkt met huidige
toezichthouders, worden eventuele lacunes in toezicht geadresseerd en wordt waar mogelijk
gezamenlijke normuitleg gestimuleerd. De algoritmetoezichthouder faciliteert en stimuleert
samenwerking tussen colleges, markttoezichthouders en rijksinspecties, vooral in het
digitale domein. Bij haar activiteiten heeft de algoritmetoezichthouder bijzondere
aandacht voor de bevordering van transparantie en de risico’s op het gebied van discriminatie
en willekeur. Dit draagt eraan bij dat de negatieve effecten van algoritme-inzet worden
tegengegaan en dat de positieve effecten optimaal kunnen worden benut. Het oprichten
van een algoritmetoezichthouder is onderdeel van de bredere opgave om algoritmen beter
te reguleren en discriminatie en willekeur tegen te gaan en transparantie te bevorderen.
Zodat mensen erop kunnen vertrouwen dat algoritmen en AI-systemen aan publieke waarden
voldoen, er zicht ontstaat op risicovolle inzet en het duidelijk is hoe deze werken.
De inrichting van de algoritmetoezichthouder is onderdeel van de Werkagenda Waardengedreven
Digitaliseren van BZK,9 die ik eerder dit najaar met uw Kamer deelde.
1. Proces en ontwikkeling algoritmetoezichthouder bij de AP
In het voorjaar van 2022 is BZK gestart met een (voor)verkenning van de activiteiten,
processen en taken met het oog op de oprichting van een algoritmetoezichthouder. Tijdens
deze verkenning zijn gesprekken gevoerd met de AP, andere toezichthouders, experts
en betrokken departementen.
Als onderdeel van dit traject heeft BZK het bedrijf Privacy Company opdracht gegeven
om verschillende scenario’s uit te werken als inspiratie voor de korte en lange termijn
inrichting van algoritmetoezicht (zie bijlage). In oktober 2022 heeft er een sessie
plaatsgevonden met negen toezichthouders, waarbij vraagstukken rondom kennis(deling)
en onderlinge samenwerking op het gebied van algoritmen en AI centraal stonden.
Daarnaast hebben er op 24 november en 30 november 2022 vier expertsessies plaatsgevonden
waarbij een breed scala aan experts – vanuit toezichthouders, ministeries, wetenschap,
maatschappelijke organisaties en bedrijfsleven – aanwezig was om hun stem te laten
horen over hoe de activiteiten van de algoritmetoezichthouder eruit zouden kunnen
zien op de korte en lange termijn. Tevens hebben er tijdens het ontwikkeltraject op
verschillende niveaus en momenten gesprekken plaatsgevonden over de nut en noodzaak,
potentiële doelstellingen, taken en scope van een algoritmetoezichthouder. Hierbij
heeft de AP – op verzoek van BZK – ook de mogelijkheden als toezichthouder in kaart
gebracht op basis van eigen expertsessies en voorbereidingen getroffen voor het uitvoeren
van activiteiten.
Deze brede en grondige verkenning heeft een aantal belangrijke inzichten opgeleverd.
De belangrijkste bevindingen betreffen:
• Veel (sectorale) toezichthouders krijgen bij het uitvoeren van hun taken en bevoegdheden
te maken met algoritmen. Zo zijn er bestaande toezichthouders die – variërend van
niet of weinig tot zeer veel – toezicht houden op het gebruik van algoritmen door
overheden en private partijen. Dit geldt bijvoorbeeld voor de Autoriteit Financiële
Markten (AFM) wanneer het algoritmen op de kapitaalmarkten betreft, het Commissariaat
voor de Media (CvdM) die onder andere kijkt naar de kansen en risico’s van AI en algoritmen
in het waarborgen van informatie en vrijheid van meningsuiting of de Inspectie Gezondheidszorg
en Jeugd (IGJ) als het gaat om algoritmen in de zorg. De toezichthouders werken samen
in verschillende werkgroepen. Zonder regie, waarbij gestructureerd en op thema’s kennis
wordt vergaard en samengewerkt, is er een risico dat er gaten vallen in de kennisdeling
tussen de verschillende toezichthouders. Dit vraagt voldoende capaciteit en focus
om te investeren in zowel de praktische als inhoudelijke aspecten van samenwerken.
• Een groot aantal toezichthouders heeft een grote behoefte aan het delen van kennis
(over algoritmen en AI en het toezicht daarop). Zeker als het gaat om de uitwisseling
van concrete casuïstiek en inzet van instrumenten en interventies.
• Er bestaan al verschillende samenwerkingsplatforms tussen toezichthouders. Dit betreft
bijvoorbeeld de informele werkgroep «Toezichthouders op AI», die sinds 2020 actief
is en waarin verschillende toezichthouders deelnemen om kennis en casuïstiek te delen
en te bespreken. Het betreft een gemêleerde groep van toezichthouders en stakeholders
(zoals de ADR en de Algemene Rekenkamer) die elk op hun eigen terrein te maken hebben
of krijgen met de effecten van de inzet van algoritmen. Daarnaast is er het Samenwerkingsplatform
Digitale Toezichthouders (SDT) waar toezichthouders (onder andere door periodiek te
overleggen) samenwerken bij het toezicht op digitale diensten, digitalisering en ontwikkelingen
in het digitale domein.10 De effecten van de inzet van algoritmen zijn veelal onderdeel van digitalisering
en de ontwikkelingen in het digitale domein. Dergelijke vormen van samenwerking en
kennisdeling zijn van meerwaarde omdat toezichthouders over vele uiteenlopende soorten
(sectorspecifieke) kennis beschikken en algoritmen en AI vaak juist ook vragen om
sector- of domeinoverstijgende uitwisseling.
• Toezicht op algoritmen vraagt in tal van situaties om vooruit en over bestaande toezichtsvelden
en juridische kaders heen te kijken. Een brede en sectoroverstijgende benadering van
risico’s en toezicht is van meerwaarde en kan bijdragen aan het krijgen van grip op
de verantwoorde ontwikkeling en inzet van algoritmen en om discriminatie, willekeur
en een gebrek aan transparantie te voorkomen. Net als eventuele nieuwe soortgelijke
risico’s die momenteel nog niet in beeld zijn. Dit sluit aan op het WRR-rapport «Opgave
AI: de nieuwe systeemtechnologie» waarin wordt onderstreept dat AI zich als systeemtechnologie
snel en breed verspreidt en door verschillende domeinen en sectoren heen snijdt.11
• De (maatschappelijke) impact van een algoritme is veelal afhankelijk van de context
waarin het wordt ingezet. Dit wordt grotendeels bepaald door de manier van gebruik,
het domein waarin het wordt ingezet en de data die ten grondslag liggen aan het ingezette
algoritme.
• Uit een analyse gemaakt door adviesbureau Hooghiemstra & Partners in opdracht van
BZK in 2019, volgde dat er geen juridische lacunes zijn in de bevoegdheden van de
toezichthouders op algoritmegebied bij overheden.12 Dit hangt volgens dit onderzoek nauw samen met het feit dat het gebruik van algoritmen
een middel is en daarmee integraal onderdeel is van de taakuitoefening door de overheid.
Mede om deze reden werd in 2019 geadviseerd om voorlopig geen afzonderlijke zelfstandige
toezichthouder aan te wijzen voor het toezicht op algoritmegebruik door de overheid.
Hooghiemstra & Partners onderstreepte daarbij wel het belang om periodiek te onderzoeken
hoe het toezicht op algoritmen zich ontwikkelt. De afgelopen jaren is de behoefte
om algoritme-gebruik te reguleren toegenomen en hierop dient ook passend en helder
toezicht plaats te kunnen vinden.
• Het toezicht dient daarom momenteel op meerdere niveaus te worden versterkt om grip
op de inzet van algoritmen te vergroten en transparantie te bevorderen.13 Dit kan (deels) worden bewerkstelligd door maatschappijbrede en sectoroverstijgende
signalering en analyse van risico’s door de algoritmetoezichthouder en als toezichthouders
samen op te trekken. Zo kunnen de toezichthouders op basis van hun bestaande (juridische)
instrumentarium effectief toezicht blijven houden op onderwerpen die ook bij algoritmen
van belang zijn. Daarnaast zal de aankomende AI-verordening eraan bijdragen dat het
toezicht wordt versterkt en transparantie verder wordt bevorderd.
1.1 Scenario’s en rode draden expertsessies
Privacy Company heeft als onderdeel van het adviestraject verschillende scenario’s
opgesteld voor de korte en lange termijn doelen en activiteiten van de algoritmetoezichthouder.
Deze zijn tijdens de expertsessies door de aanwezigen besproken. Uit de (expert-)sessies
kwam duidelijk naar voren dat het scenario waarin de algoritmetoezichthouder zich
(primair) richt op het ondersteunen en stimuleren van samenwerking tussen toezichthouders,
het signaleren en analyseren van risico’s en blinde vlekken en het komen tot (gezamenlijke)
voorlichting en normuitleg de voorkeur genoot. Door middel van deze onderdelen kan
het bestaande toezichtslandschap het beste worden ondersteund en in staat worden gesteld
om (effectief) toezicht te houden op algoritme-inzet. Scenario’s waarin de algoritmetoezichthouder
een (openbaar) klachtenloket zou inrichten, een nieuwe publieke website of een (interne)
gezamenlijke database met signalen en klachten konden niet rekenen op veel draagvlak,
onder meer vanwege de hoge kosten en twijfels over de nut en noodzaak.
De belangrijkste uitkomsten uit de verschillende (expert)sessies:
• Het toezichtslandschap op het gebied van algoritmen bestaat uit veel verschillende
toezichthouders met uiteenlopende doelen en expertise.
• Bijna alle toezichthouders zullen binnen hun sector of domein toezicht moeten houden
op AI. Bij het beoordelen van de risico’s van AI in een bepaalde context is juist
sector- en domeinspecifieke kennis van belang.
• Een groot aantal experts gaf aan dat er niet één toezichthouder op algoritmen en AI
kan zijn. Vooral het versterken van het bestaande toezichtslandschap is belangrijk.
• Een groot deel van de experts benadrukte het belang van samenwerking, signalering
en normuitleg – uitleg over hoe bepaalde normen in de praktijk dienen te worden toegepast –
als (korte termijn) taken. Er is behoefte aan concrete handvatten (zoals bijvoorbeeld
de Handreiking non-discriminatie by design14 die in opdracht van BZK is ontwikkeld) hoe organisaties directe en indirecte discriminatie
kunnen voorkomen bij het ontwerp van algoritmische systemen.
• Voor activiteiten als het formuleren van gezamenlijke normering – dit betreft bijvoorbeeld
het opstellen van richtlijnen met verschillende toezichthouders – of voor een klachtenloket
was veel minder animo. Er bestaan reeds veel klachtenloketten voor burgers en organisaties.
Een nieuw loket zou de herkenbaarheid voor burgers juist kunnen verslechteren vanwege
de potentiële overvloed aan verschillende loketten («de lokettenjungle»). Beide opties
werden daarom gezien als onhaalbaar en niet wenselijk.
• Het belang van (kennis)netwerken en opbouwen van opleidingen werd onderstreept, ook
voor jonge instroom van medewerkers. Op de korte termijn zou de algoritmetoezichthouder
het initiatief uit de Werkgroep AI kunnen ondersteunen om bestaande opleidingen te
inventariseren.
• Er was niet veel draagvlak voor dure (nieuwe) platforms en databases, juist het gebruik
van bestaande middelen en kennis werd benadrukt.
• Burgers zien alleen een uitkomst, niet dat er algoritmen worden gebruikt. Het is daarom
belangrijk dat organisaties die algoritmen toepassen de inzet van algoritmen zichtbaar
maken. Dit draagt er ook aan bij dat burgers beter begrijpen dat ze bij die organisatie
om meer uitleg of een ander besluit kunnen vragen.
• Op het publiek algoritmeregister werd als potentieel toezichtinstrument positief gereageerd,
wel werd het belang van vervolggesprekken en verdere verkenning over de eventuele
rol van de algoritmetoezichthouder hierbij benoemd.
• Houd op wetgevingsniveau rekening met overlappende bevoegdheden, voorkom stapeling
van toezicht.
• Een toezichthouder actief op het gebied van algoritmen en AI dient oog te hebben voor
zowel diversiteit in de samenleving als binnen de eigen organisatie.
• Het is belangrijk om de verwachtingen over de algoritmetoezichthouder goed te managen:
met de beschikbare middelen kan deze toezichthouder niet zelf alle vragen en problemen
oplossen.
2. Inhoudelijke inrichting van de algoritmetoezichthouder in 2023
De uitkomsten van de brede verkenning en de input uit verschillende (expert-)sessies
vormen de basis voor de doelen en activiteiten waarmee de algoritmetoezichthouder
vanaf 2023 van start kan gaan. Om aan de in deze inrichtingsnota geformuleerde doelen
uitvoering te geven zal de AP als onafhankelijk bestaand zelfstandig bestuursorgaan
met eigen rechtspersoonlijkheid activiteiten ontplooien. Afgeleid van de precieze
organisatorische inbedding van deze activiteiten zal de AP begin 2023 het nieuwe pakket
van activiteiten voorzien van een passende naam. Tot dan worden de hier beschreven
doelen en activiteiten aangeduid met «de algoritmetoezichthouder».
Uitgangspunt is dat het toezichtslandschap, het controlebestel en bestaande bevoegdheden
intact blijven en worden versterkt, onder meer door het signaleren en analyseren van
domein- en sectoroverstijgende risico’s en effecten, bevorderen van kennisuitwisseling
en het faciliteren en stimuleren van samenwerking en activiteiten op het gebied van
algoritmetoezicht. Daarmee wordt verder invulling gegeven aan de in 2021 geformuleerde
ambities om het bestaande sectoroverstijgend toezicht voor zowel de overheid als de
private sector te versterken en samenwerking tussen toezichthouders te stimuleren.15 Daarbij zijn zeker in het geval van sectoroverstijgende vraagstukken gemeenschappelijke
kennisontwikkeling en uitwisseling van grote meerwaarde.16
Daarnaast versterkt de AP, als toezichthouder op de naleving van de AVG, het toezicht
op algoritmen met persoonsgegevens. De inzichten en uitkomsten hiervan kunnen de activiteiten
op het gebied van algoritmetoezicht versterken.
De algoritmetoezichthouder moet zich dan ook inzetten voor het optimaliseren van de
samenwerking tussen betrokken toezichthouders. Dit is des te meer van belang omdat
goede samenwerking het domeinoverstijgend signaleren, analyseren en adresseren van
risico’s aanzienlijk kan verbeteren. Hiervoor kunnen zoveel mogelijk de bestaande
structuren, kennis en bevoegdheden binnen het (digitale) toezichtslandschap worden
benut. De algoritmetoezichthouder zal zich vanaf januari 2023 primair richten op de
volgende doelen:
• Het signaleren en analyseren van sectoroverstijgende en overkoepelende risico’s en
effecten van algoritmen en het delen van kennis daarover;
• Het optimaliseren van (bestaande) samenwerkingen met colleges, markttoezichthouders
en rijksinspecties, en het in kaart brengen van overkoepelend toezicht op het gebied
van algoritmen en AI;
• Het komen tot gezamenlijke normuitleg en het scheppen van overzicht in wettelijke
en andere kaders.
a) Het signaleren van risico’s en uitvoeren van overkoepelende analyses
Een belangrijke rol voor de algoritmetoezichthouder betreft het zo vroeg mogelijk
signaleren, analyseren en agenderen van potentiële maatschappijbrede risico’s van
de inzet van algoritmen, waarbij specifiek aandacht is voor discriminatie, uitsluiting
en transparantie. Hierbij kan onder andere gedacht worden aan het samenbrengen en
analyseren van signalen uit bestaand toezicht, van belangenorganisaties of andere
stakeholders. Hiermee kunnen risico’s vroeger in de ontwikkeling of inzet in beeld
gebracht en aangepakt worden. Een dergelijke vorm van analyse vraagt een goede maatschappelijke
antenne. Dit kan worden gerealiseerd door naast met andere toezichthouders, ook nadrukkelijk
de samenwerking en dialoog op te zoeken met het maatschappelijk middenveld, kennisinstellingen
en de wetenschap.17 Daarbij is het ook van belang dat de algoritmetoezichthouder zichtbaar is voor onder
meer burgers en (overheids)organisaties, zodat ook vanuit deze hoek signalen kunnen
worden opgevangen en geanalyseerd. Het beeld dat na analyse daaruit ontstaat vormt
een belangrijke bouwsteen voor de samenwerkingen (als benoemd onder 2b). Deze kunnen
daarnaast het startpunt vormen voor een potentieel onderzoek van een (sectorale) specifieke
toezichthouder, die op basis van eigen bevoegdheden op acties zou kunnen overgaan.
Ook bestaat er de mogelijkheid, afhankelijk van of de bevoegdheden van de betrokken
toezichthouders dit toelaat, om gezamenlijk een onderzoek op te starten. Tot slot
kunnen de signalen en risico’s op structurele wijze worden teruggekoppeld naar relevante
departementen met het oog op (toekomstig) beleid.18
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het verzamelen en analyseren van (sector- en domeinoverstijgende) signalen en inzichten
over de risico’s en effecten van algoritmegebruik. Hierdoor krijgen toezichthouders
mogelijke (nieuwe) inzichten in significante ontwikkelen en risico’s. Dit stelt hen
in staat om hier (indien wenselijk) vervolgens toezicht op te intensiveren. Ook voor
andere stakeholders zoals burgers, organisaties, wetenschap en burgerrechtenorganisaties
kan beter zicht op de risico’s en effecten van algoritmegebruik van meerwaarde zijn.
• Het delen van inzichten in risico’s, effecten en over de verantwoorde inzet van algoritmen,
voortkomend uit signalering en analyse. Deze kennis wordt periodiek en publiekelijk
gedeeld, bijvoorbeeld op de website van de algoritmetoezichthouder.
b) Het optimaliseren van (bestaande) samenwerkingen
Het intensiveren van de samenwerking en het delen van kennis en expertise, zowel op
het vlak van mensenrechtenbescherming als binnen het technische domein, zal ertoe
leiden dat risico’s van algoritmegebruik effectiever kunnen worden aangepakt en eerder
aan het licht komen of kunnen worden voorkomen. De algoritmetoezichthouder zal zich
vanaf januari 2023 dan ook inzetten om samenwerking tussen toezichthouders te bevorderen.
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het versterken en faciliteren van (bestaande) samenwerkingen op toezichtsgebied. Het
optimaliseren van samenwerking zal, waar mogelijk, gebruikmaken van bestaande overleggen
zoals een kerngroep toezichthouders die meer verdiepend en intensiever de samenwerking
op het gebied van algoritmen en AI zullen aangaan. De AP zal hier de wensen inventariseren,
initiatieven en samenwerking praktisch faciliteren, bijeenkomsten organiseren en het
versterken van samenwerking stimuleren. Door de grote diversiteit aan toezichtsgebieden
is het faciliteren van samenwerkingen van meerwaarde.
• Het in gezamenlijkheid kijken naar domeinoverstijgende maatschappijbrede risico’s,
toezichtsvraagstukken en blinde vlekken in het toezicht op het gebied van algoritmen
en AI, in samenwerking met het toezichtslandschap en andere betrokkenen. Op deze wijze
krijgen specifieke toezichthouders meer inzicht en grip op de brede onbekende effecten,
risico’s en mogelijk te adresseren vraagstukken op het gebied van algoritme(-inzet).
c) Gezamenlijke normuitleg in de toezichtspraktijk en overzicht scheppen
Vanuit rechtszekerheid en met het oog op de naleving van regels moeten toezichthouders
in veel gevallen invulling geven aan vastgestelde normen (regels) over algoritmegebruik
en de wijze waarop de door ondertoezichtgestelden kunnen worden toegepast. De algoritmetoezichthouder
kan eraan bijdragen dat multidisciplinaire kennis in de vorm van guidance19 of normuitleg wordt gedeeld met burgers, bedrijven en overheden. Daarbij kan de algoritmetoezichthouder
normuitleg van twee toezichthouders – indien er sprake is van gemeenschappelijke toezichtsthema’s
en het in samenwerking tot stand komt – samenbrengen of niet-verplichte kaders inzichtelijk
maken. Eenduidige en gezamenlijke uitleg van normen en guidance over de toepassing
daarvan kan het implementeren van bestaande en nieuwe wetgeving voor onder toezicht
gestelden vergemakkelijken.
Met de AP is overeenstemming bereikt over de volgende activiteiten:
• Het aanjagen van de opstelling van gezamenlijke en toezichtsgebied overstijgende normuitleg
en guidance in samenwerking met andere toezichthouders. Bijvoorbeeld door aanpalende
thema’s te identificeren en vanuit het signaleren en identificeren potentiële normen
voor verdere uitleg te agenderen. Hierbij zal normuitleg moeten leiden tot meer rechtszekerheid
bij de inzet van algoritmen en zal guidance over de wijze waarop deze normen gehanteerd
kunnen worden moeten leiden tot betere naleving.
• Het bieden van informatie en overzicht (door middel van guidance en normuitleg) aan
een brede groep ondertoezichtgestelden en burgers over (verantwoorde) inzet van algoritmen.
Denk hierbij aan kleine overheden, maar ook startups in de technologiesector. Dit
sluit ook aan op de belangrijke rol die toezichthouders hebben als het gaat om voorlichting
geven over algoritmen gericht op de gehele samenleving.20
2.1 Randvoorwaarden
Hieronder worden randvoorwaarden beschreven die – naast de hierboven genoemde doelen
en activiteiten – relevant zijn voor het optimaal kunnen uitvoeren van de taken die
de algoritmetoezichthouder bij de AP zal oppakken.
Transparantie in werkwijze
• Een goed functionerende toezichthouder is transparant over de te hanteren normen en
het beleid. De algoritmetoezichthouder zal voldoen aan de geldende transparantie-eisen,
zoals bijvoorbeeld de Wet Open Overheid (WOO). Tevens zal de algoritmetoezichthouder
zijn positie in het toezichthouderslandschap bij de start toelichten en inzicht geven
in vorderingen op het behalen van de geformuleerde doelen. Jaarlijks zal als onderdeel
van het jaarverslag van de AP een overzicht gegeven worden van uitgevoerde werkzaamheden
en resultaten.
• Daarbij geldt ook het uitgangspunt dat de toezichtstrategie die (specifiek) wordt
geformuleerd voor het werk en de (toezichts)activiteiten van de algoritmetoezichthouder
zal worden gedeeld.
• De algoritmetoezichthouder publiceert eind 2023 een rapport om de ontwikkelingen in
het algoritmetoezicht en de risico’s van algoritmen inzichtelijk te maken. Daarbij
is aandacht voor zowel de positieve als de negatieve effecten van algoritme-inzet.
Het geeft hiermee uitvoering aan het eerste doel (het signaleren van risico’s en uitvoeren
van analyses) in deze nota. Dit rapport zal met uw Kamer worden gedeeld.
Versterken van (bestaand) toezicht op algoritmen via AVG
Naast de activiteiten die de AP op het gebied van algoritmetoezicht vanuit het coalitieakkoord
op zich neemt, zal de AP zich als toezichthouder op de AVG de komende jaren ook nog
actiever inzetten om de negatieve gevolgen van het gebruik van algoritmen waar persoonsgegevens
worden gebruikt te voorkomen. Op 28 april 2022 is door JenV besloten om de AP hiervoor
vanaf 2023 structureel 2,61 miljoen euro toe te wijzen in het kader van de «Werk aan
uitvoering» (WaU)-middelen. De AP zal deze middelen inzetten om haar toezicht op gebruik
van algoritmen te versterken met als doel negatieve gevolgen van het gebruik van algoritmen
waarin persoonsgegevens worden gebruikt te voorkomen, de risico’s te signaleren en
aan te pakken. De beoogde effecten en prestaties zijn dat de ontwikkeling van algoritmen
op een verantwoorde manier gebeurt en negatieve gevolgen zoals discriminatie wordt
voorkomen. Ook (specifiek) voor de algoritmetoezichthouder zijn deze opgedane signalen
op het gebied van de bescherming van persoonsgegevens van meerwaarde in de verschillende
doelen en activiteiten, zoals het signaleren van risico’s en uitvoeren van analyses.
3. Vervolgstappen
In 2023 zullen door BZK in het kader van de algoritmetoezichthouder – in nauwe afstemming
met de AP, betrokken departementen en toezichthouders – verschillende vervolgstappen
worden genomen om noodzakelijke aspecten rondom toezicht op algoritmen verder uit
te werken. Er is onderscheid gemaakt tussen een aantal speerpunten die in 2023 verder
moeten worden uitgewerkt. Concreet betreft het de volgende vervolgstappen:
• Duidelijkheid scheppen over de doelen en activiteiten van de algoritmetoezichthouder
vanaf 2024.
• Het voeren van een structurele dialoog met digitale toezichthouders en het in kaart
brengen van (nieuwe) toezichtstaken op het gebied van algoritmen.
• Het verkennen van de (potentiële) rol van de algoritmetoezichthouder in relevante
(BZK-)beleidstrajecten en opkomende wet- en regelgeving.
In het derde kwartaal van 2023 informeer ik uw Kamer over de vorderingen.
a) Duidelijkheid over opschaling activiteiten vanaf 2024
In de loop van 2023 zal ook invulling worden gegeven aan de middelen die vanaf 2024
zijn toegewezen aan de AP voor algoritmetoezichthouder. Het gaat concreet om 2 miljoen euro
in 2024, 3 miljoen euro in 2025 en vanaf 2026 structureel 3,6 miljoen euro.21 Deze budgetverhoging brengt met zich mee dat de activiteiten en taken van de algoritmetoezichthouder
vanaf 2024 kunnen worden geïntensiveerd en waar nodig uitgebreid. Op basis van de
verkenning en expertsessies22 worden de volgende activiteiten in ieder geval verder verkend en, waar wenselijk
en mogelijk, onderdeel van het takenpakket en de doelen van de algoritmetoezichthouder
bij de AP vanaf 2024:
• Voorlichtende functie uitbreiden. Vanaf 2024 kan de algoritmetoezichthouder zich actiever
richten op het geven van diverse vormen van voorlichting aan burgers en (overheids)organisaties.
Dit zal zich bijvoorbeeld kunnen toespitsen op specifieke voorlichting over de effecten
van deze technologie of handvatten voor de bescherming van grondrechten. Hiermee kan
mogelijk ook worden ingespeeld op eventuele verdere behoeftes wat betreft normuitleg
en guidance om de negatieve effecten van algoritmegebruik zoveel mogelijk in een vroeg
stadium te voorkomen. Daarnaast kunnen ook positieve voorbeelden van algoritme-inzet
worden gedeeld.
• Vergroten van kennis. De extra middelen vanaf 2024 bieden een kans om de (interne)
kennis en expertise bij toezichthouders en wellicht andere stakeholders op het gebied
van effecten van, en toezicht op algoritmen en AI te vergroten, bijvoorbeeld door
opleidingen of andere kennisgerichte activiteiten.
• Uitbreiden van signalerings- en analysefunctie. Het verder uitbreiden hiervan met
bijvoorbeeld meer eigen verkenningen en het uitvoeren van zelfstandig en gezamenlijk
onderzoek moet bijdragen aan het in kaart brengen van de risico’s, ontwikkelingen
en blinde vlekken die eraan bijdragen dat er bij algoritme inzet sprake kan zijn van
discriminatie, willekeur of een gebrek aan transparantie. De uitkomsten uit onderzoeken
kunnen daarbij worden opgevolgd door specifieke voorlichting of waar mogelijk eventueel
opvolging door de gespecialiseerde (sectorale) toezichthouder. Tevens kunnen deze
inzichten worden gebruikt aan de beleidskant, bijvoorbeeld bij beleidsvorming of uitvoering.
In het derde kwartaal van 2023 zal meer duidelijkheid worden gegeven over de doelen
en activiteiten die in 2024 zullen worden uitgevoerd door de algoritmetoezichthouder.
b) Dialoog met digitale toezichthouders en overzicht (nieuwe) toezichtstaken
De komende jaren moet verder vorm gegeven worden aan de vele nieuwe toezichtstaken
binnen het digitale domein die onder andere voortvloeien uit EU-regelgeving. Voor
de vormgeving en uitvoeringswetgeving van deze toezichtstaken vindt nauw overleg plaats
tussen betrokken departementen en toezichthouders. Indien er meerdere toezichthouders
in aanmerking komen voor toezichtstaken wordt met de relevante stakeholders gesproken
om te bepalen hoe het kabinet het toezicht het beste kan beleggen om effectief toezicht
tot stand te brengen. Hierbij is het belangrijk dat de samenhang in het toezicht op
alle EU en (nationale) wetgevingsinitiatieven binnen het algoritme en AI-domein wordt
gewaarborgd.
Dit pleit temeer voor een dialoog tussen politiek en toezichthouders binnen het digitale
domein, iets waarvoor ik mij ga inzetten. Zo ben ik de afgelopen periode in gesprek
geweest met onder meer de AP en de ACM en zal ik in 2023 in gesprek treden met samenwerkingsverbanden
van toezichthouders. Dit moet bijdragen aan een meer structurele dialoog met toezichthouders
en relevante samenwerkingsverbanden (waar mogelijk ook een rol is weggelegd voor de
algoritmetoezichthouder). Dit helpt tevens bij het bieden van overzicht en helderheid
in bestaande en nieuwe (toezichts)taken en bevoegdheden als het gaat om toezicht op
algoritmen. Ook wordt hiermee gehoor gegeven aan de toezegging die in oktober 2021
is gedaan aan uw Kamer om in gesprek te gaan met de bestaande toezichthouders om te
kijken hoe zaken verbeterd zouden kunnen worden als het gaat om toezicht op discriminerende
algoritmen naar aanleiding van de motie met Kamerstuk 35 925 VII, nr. 33 van het lid Van Baarle (DENK).23
c) Nieuwe wet- en regelgeving algoritmen
Om de gewenste opschaling van de algoritmetoezichthouder mogelijk te maken zal er
in 2023 tevens verder worden verkend welke nieuwe wet- en regelgeving nodig is om
algoritmetoezicht verder te verwezenlijken. Hierin zullen nieuwe taken en bevoegdheden
voor de algoritmetoezichthouder, die zien op het toezicht op algoritmen, worden overwogen
en verkend. BZK zal dit verkennen in nauw overleg met de betrokken stakeholders en
voor de gekozen activiteiten zal BZK passende middelen aan de AP toewijzen. Ook hierin
geldt het uitgangspunt dat bij de inrichting van het toezicht zo veel mogelijk wordt
voortgebouwd op of aansluiting gezocht bij bestaand toezicht. Daarbij zijn ook aspecten
als uitvoerbaarheid en het voorkomen van stapeling van toezicht van groot belang.
Ten aanzien van nieuwe toezichtstaken zal een uitvoeringstoets worden uitgevoerd.
De AI-verordening is momenteel nog in onderhandeling en zal bepalingen bevatten die
raken aan (sommige van) de genoemde instrumenten en trajecten. De Europese AI-verordening
vormt daarbij het fundament waarop zal moeten worden gebouwd. Daarom wordt de uitvoering
van deze verordening leidend bij het vormgeven van het algoritmetoezicht. Over de
inrichting van het nationale toezicht op de AI-verordening kan worden besloten als
de onderhandelingen zijn afgerond en het voorstel definitief is. Zoals eerder benoemd
worden er nu al stappen gezet om tot de verantwoorde inzet van algoritmen bij de overheid
te komen, bijvoorbeeld via het implementatiekader voor algoritmen. In 2023 kan verkend
worden in hoeverre (ingezette) beleidstrajecten behulpzaam zijn bij de verdere uitwerking
van het toekomstig toezicht, zonder daarbij vooruit te lopen op de toezichtstaken
en verplichtingen uit de AI-verordening:
• Verplicht uitvoeren van mensenrechten impacttoets waar uw Kamer om heeft gevraagd.24 Na de invoering van deze verplichting zou de algoritmetoezichthouder onderzoek kunnen
doen naar (on)uitgevoerde mensenrechten impacttoetsen.
• Het implementatiekader voor algoritmen schept duidelijkheid aan overheden over de
eisen waar ze aan moeten voldoen en wat van ze wordt verwacht.25 De algoritmetoezichthouder zou een rol kunnen spelen in het toezien op de naleving
van het implementatiekader.
• Verplichtingen publiek algoritmeregister. Het kabinet gaat het opstellen van een publiek
algoritmeregister voor overheidsorganisaties verplicht stellen.26 Na invoering van (eventuele) verplichting zou de algoritmetoezichthouder toezicht
kunnen houden op de vulling van het register.
• Onderzoek doen naar periodieke audits op algoritme-inzet. Er bestaat de mogelijkheid
om overheidsorganisaties te verplichten om periodieke audits op algoritme-inzet te
laten uitvoeren, bijvoorbeeld door de ADR. Op basis van deze uitgevoerde audits zou
de algoritmetoezichthouder rode draden kunnen analyseren en overkoepelende risico’s
en transparantie in kaart kunnen brengen.
4. Slotwoord
Sinds de bekendmaking van het coalitieakkoord is er door de betrokken partijen – departementen,
de AP, andere toezichthouders en een breed scala aan experts – hard gewerkt aan het
verkennen en vormgeven van de doelen en activiteiten voor de algoritmetoezichthouder
bij de AP. Deze brief bevat een omschrijving van activiteiten waarmee de algoritmetoezichthouder
vanaf januari 2023 zal starten, evenals de vervolgstappen om de komende jaren tot
verdere vormgeving van het toezicht op algoritmen te komen. Door het oprichten van
de algoritmetoezichthouder wordt het bestaand toezicht in Nederland beter in staat
gesteld om toezicht te houden op de mogelijk negatieve (maatschappelijke) effecten
van algoritmegebruik, zoals discriminatie of willekeur. Door goed toezicht maakt de
overheid algoritmen en hun toepassingen eerlijk en transparant, zodat iedereen op
een gelijke behandeling kan rekenen en vertrouwen heeft en rechtsbescherming geniet
in de digitale wereld. Wel zullen er daarbij in de komende jaren – in nauwe samenwerking
met toezichthouders, overheden, maatschappelijke organisaties en private partijen –
nog verschillende aspecten nader worden ingevuld om tot een optimale inrichting van
het toezichtslandschap op algoritmen te komen. Hierbij is een goede samenwerking en
een grondig proces cruciaal. De oprichting van de algoritmetoezichthouder vormt daarbij
een nieuwe en broodnodige stap om te komen tot een verantwoorde inzet van algoritmen
in Nederland.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, A.C. van Huffelen
Ondertekenaars
-
Eerste ondertekenaar
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties