Brief regering : Voortgang AI en algoritmen
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 765 BRIEF VAN DE MINISTERS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES EN VOOR RECHTSBESCHERMING
EN VAN DE STAATSSECRETARISSEN VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES EN VAN
ECONOMISCHE ZAKEN EN KLIMAAT
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 10 juni 2021
De aandacht voor de impact van algoritmen en artificiële intelligentie (AI) op de
samenleving is de laatste jaren sterk toegenomen. Met name de risico’s die deze toepassingen
kunnen meebrengen staan terecht hoog op de politieke en maatschappelijke agenda. Het
kabinet vindt het van belang om ook te blijven wijzen op de kansen die AI en algoritmen
bieden voor innovatie en om maatschappelijke problemen aan te pakken.1 Door de risico’s van AI en algoritmen te beperken kunnen de maatschappelijke en economische
kansen van AI op een verantwoorde wijze worden benut. Wanneer algoritmen of artificiële
intelligentie in een verkeerde context, op verkeerde wijze of met het verkeerde doel
worden ingezet kan de impact enorm zijn.2 Publieke waarden en fundamentele rechten zoals privacy, non-discriminatie, autonomie
en menselijke waardigheid kunnen onder druk komen te staan waardoor burgers in de
knel kunnen komen. Normering en toezicht kunnen eraan bijdragen de risico’s van algoritmen
te beperken.
In het kader van de Parlementaire Ondervragingscommissie Kinderopvangtoeslagen (POK) zijn er meerdere moties ingediend waarin de koppeling tussen
de POK en het beleid en de regelgeving omtrent algoritmen wordt gemaakt. Deze moties
zien toe op het juridisch kader en methoden om transparantie over de inzet van algoritmen
te bevorderen. Het kabinet zal in deze brief op een aantal van deze moties3 ingaan.
Het kabinet onderschrijft het belang van beleid en regelgeving omtrent algoritmen
en AI. Om problemen met algoritmen te voorkomen is daarbij een proactieve houding
noodzakelijk. Het kabinet heeft uw Kamer eerder, al dan niet in reactie op verricht
onderzoek, geïnformeerd over de risico’s die zich voor kunnen doen bij de inzet van
algoritmen, over het juridisch kader omtrent de inzet van algoritmen en over het kabinetsbeleid
om schendingen van mensenrechten te voorkomen.4
Met deze brief informeert het kabinet uw Kamer over de voortgang op de lopende beleidstrajecten
die voortvloeien uit de beleidsbrief «AI, publieke waarden en mensenrechten» van 8 oktober
2019.5 Voorts ontvangt u de resultaten van de projectgroep normering en toezicht algoritmen.6 Op basis van het werk van de projectgroep heeft het kabinet de «Beleidsagenda Normering
en Toezicht Algoritmen» opgesteld (hierna: «de beleidsagenda») die in deze brief is
opgenomen. Hiermee brengt het kabinet bestaande trajecten samen en zorgt ze voor eenheid
van beleid. In de beleidsagenda wordt aangegeven welke concrete acties het kabinet
onderneemt om een verantwoorde inzet van algoritmen te borgen en te zorgen dat er
effectief toezicht is op de regels die hieruit voortvloeien. Daarbij is ook het bevorderen
van transparantie en uitlegbaarheid van algoritmen en hun toepassingen van groot belang.
De voortgang met betrekking tot acties uit de kabinetsreactie op het onderzoek «Toezicht
op het gebruik van algoritmen door de overheid» van 20 april 2020 is in de beleidsagenda
meegenomen.7
AI, publieke waarden en mensenrechten
In de beleidsbrief «AI, publieke waarden en mensenrechten»8 heeft het kabinet kansen en risico’s en geschetst voor het borgen van publieke waarden
en mensenrechten bij de inzet van AI. In dat kader zijn het afgelopen jaar verschillende
initiatieven ondernomen of ondersteund. Vanuit de getrapte innovatiecompetitie Small Business Innovation Research (SBIR) investeerde BZK in ongeveer 40 initiatieven in verschillende overheidslagen.
Daarnaast wordt actief deelgenomen aan het opzetten van Ethical Legal and Societal Aspects Labs (ELSA labs), waar overheid en bedrijven experimenteren met mensgerichte AI. Het kabinet
streeft naar mensgerichte AI en werkt(e) deze uit in drie concrete instrumenten. Deze
instrumenten hebben geen verplichtend karakter, maar zijn hulpmiddelen voor overheidsorganisaties
die algoritmen willen inzetten. Het komend jaar wordt in samenwerking met ministeries,
uitvoeringsorganisaties en (vertegenwoordigers van) medeoverheden in de praktijk ervaring
opgedaan met het gebruik van de instrumenten en wordt de onderlinge samenhang van
de instrumenten verder uitgewerkt. De instrumenten zullen worden samengebracht in
de online toolbox Ethisch verantwoord innoveren voor overheden9. Het betreft de volgende drie instrumenten:
• Handreiking AI-systeemprincipes voor non-discriminatie. Dit hulpmiddel is in januari van dit jaar afgerond en biedt een praktisch toepasbaar
ontwerpkader dat ontwikkelaars helpt om al in de ontwikkelfase van een AI-systeem
discriminerende patronen in gegevens zoveel mogelijk te identificeren, te voorkomen
en te bestrijden. In de handreiking is een vertaalslag gemaakt van essentiële juridische
kaders naar operationele ontwerpprincipes. De handreiking is toegevoegd in bijlage
110 bij deze brief. Het achterliggende onderzoeksrapport en de bijbehorende documenten
worden zo spoedig mogelijk gepubliceerd op de website www.digitaleoverheid.nl.
• Impact assessment voor mensenrechten bij de inzet van algoritmen (IAMA). Dit impact assessment kan een organisatie gebruiken om in de gehele levenscyclus van algoritmische systemen
de risico’s voor mensenrechten in kaart te brengen en te mitigeren. Het IAMA wordt
in opdracht van het kabinet door de Universiteit Utrecht ontwikkeld en is naar verwachting
eind juni gereed.
• Code Goed Digitaal Openbaar Bestuur. Deze code is op verzoek van uw Kamer ontwikkeld11 en geeft aandacht aan de gevolgen van digitalisering voor Goed Openbaar Bestuur door
middel van principes en waarden die in drie ankerpunten (democratie, rechtsstaat en
bestuurskracht) verwerkt zijn. Daarnaast bevat de code een aanzet voor organisatorische
acties die nodig zijn om publieke waarden en mensenrechten te borgen. Daarom wordt
onderzocht of de code geïntegreerd kan worden in de te actualiseren code Goed Openbaar
Bestuur.12 De Code Goed Digitaal Openbaar Bestuur is toegevoegd in bijlage 213 bij deze brief.
Resultaat projectgroep normering en toezicht algoritmen
Bij brief van 15 oktober 202014 heeft het kabinet aangekondigd een ambtelijke projectgroep normering en toezicht
algoritmen in te stellen. Dit besluit is genomen naar aanleiding van de initiatiefnota
«Menselijke grip op algoritmen» van het lid Middendorp van uw Kamer. De projectgroep
heeft twee opdrachten vervuld:
• Het inventariseren van de openstaande beleidsvraagstukken (onder meer voortkomend
uit afgerond onderzoek) op het gebied van normering en toezicht algoritmen. Hiertoe
zijn medeoverheden, het maatschappelijk middenveld, het bedrijfsleven en de wetenschap
geconsulteerd. Het resultaat van deze inventarisatie is in bijlage 315 weergegeven.
• Het brengen van overzicht in de bestaande trajecten op het gebied van normering en
toezicht algoritmen en de doelstellingen van deze trajecten. In onderstaande tabel
is dit overzicht weergegeven.
In onderstaande tabel zijn de meest relevante trajecten weergegeven die zien op de
generieke normering van en het toezicht op algoritmen, de tabel is niet uitputtend.
Het betreft trajecten die in aanvulling op bestaande kaders zoals de Algemene verordening
gegevensbescherming (AVG), Algemene wet bestuursrecht (Awb) en het consumentenrecht
relevant zijn. Door verschillende nationale en internationale organisaties wordt gelijktijdig
gewerkt aan het stimuleren en borgen van de inzet van verantwoorde algoritmen en AI.
Daarnaast beproeven verschillende overheden deze instrumenten nu in de praktijk. Deze
ervaringen kunnen t.z.t. een goede basis bieden voor eventuele vervolgstappen. In
de tabel wordt aangegeven op wie en hoe normen van toepassing zijn, door wie en hoe
het instrumentarium gebruikt kan worden (doel) en de mate waarin het een verplichtend
karakter heeft.
Normen kaders
Doel
Karakter
Vindplaats en opleverdatum
Recommendation on the Ethics of AI – UNESCO
Aanbevelingen ten behoeve van landen voor wetgeving en beleid om AI ethisch in te
zetten.
Niet bindend: Aanbeveling
Het voorstel voor de aanbevelingen wordt eind 2021 verwacht. De preliminary study is reeds op de UNESCO-site te vinden.
Ethics Guidelines for Trustworthy AI – Europese Commissie
Ethische richtsnoeren ontwikkelt op verzoek van de Europese Commissie die organisaties
kunnen gebruiken wanneer zij AI inzetten.
Niet bindend: Hulpmiddel
De richtsnoeren zijn in april 2019 opgeleverd.
Juridisch raamwerk voor AI (CAHAI) – Raad van Europa
Met een feasibility study is de noodzaak bepaald om te komen tot een juridisch raamwerk (bijvoorbeeld in de
vorm van een verdrag) ter verdere bescherming van de democratie, rechtsstaat en fundamentele
rechten.
N.t.b. mogelijk bindende en niet bindende onderdelen
De feasibility study is in december 2020 afgerond en door de CAHAI (tijdens de plenaire vergadering) aangenomen.
Wetgeving m.b.t. algoritmen en AI – Europese Commissie
De Europese Commissie publiceerde in april 2020 haar Witboek AI dat als doel had inzicht
te geven in de denkrichtingen m.b.t. mogelijke wetgeving op het gebied van algoritmen
en artificiële intelligentie. In opvolging hiervan heeft de Commissie op 21 april
2021 een voorstel voor een verordening om het juridisch kader verder aan te vullen
gepubliceerd.
N.t.b. mogelijk bindende en niet-bindende onderdelen.
Het kabinet heeft uw Kamer in mei 2020 haar appreciatie van het Witboek AI toegezonden.
21 april 2021 is het voorstel voor een verordening AI gepubliceerd.
Richtlijnen voor het toepassen van data-analyse door de overheid – het kabinet
Overheidsorganisaties handvatten te bieden om op rechtmatige wijze (algoritmische)
data-analyse toe te passen.
Niet bindend: hulpmiddel.
Worden doorlopend aangescherpt. In deze brief wordt de verwezen naar de publicatie
van de laatste versie.
Toezicht kaders
Impact Assessment voor Mensenrechten bij de inzet van Algoritmen – het kabinet
Instrument dat overheidsorganisaties helpt om in de gehele levenscyclus van technologische
systemen risico’s voor mensenrechtenschendingen in kaart te brengen en te mitigeren.
Niet bindend: hulpmiddel.
Het IAMA wordt naar verwachting eind juni van 2021 opgeleverd.
Data Protection Impact Assessment (DPIA)
In kaart brengen van risico’s voor rechten en vrijheden van personen bij het verwerken
van persoonsgegevens
Verplicht voor hoog-risico verwerkingen (artikel 35 AVG)
Artikel 35 AVG.
Toetsingskader Algoritmen – ARK
Het toetsingskader is een praktisch instrument dat de ARK en andere overheidsorganisaties
kunnen gebruiken om te toetsen of algoritmes aan kwaliteitscriteria voldoen én of
de risico’s in beeld zijn en worden beperkt.
Niet bindend.
Het toetsingskader is op de site van de ARK te vinden.
Normenkader Algoritmen – ADR
Een door de ADR ontwikkeld toetsingskader dat op termijn wellicht ingezet kan worden
voor het structureel auditen van algoritmes bij de overheid
n.t.b.
Het kader wordt in 2021 a.d.h.v. specifieke casuïstiek getoetst en doorontwikkeld.
Handreikingen en methodieken
AI-systeemprincipes non-discriminatie – het kabinet
De AI-systeemprincipes voor non-discriminatie zijn in de vorm van een handreiking
een hulpmiddel voor overheidsorganisaties om ontwikkelaars van AI-systemen helpt discriminatie
al in de ontwikkelfase van een AI-systeem te ondervangen.
Niet bindend: handreiking.
Deze handreiking is in januari 2021 opgeleverd en wordt met deze brief meegestuurd.
Code Goed Digitaal Openbaar Bestuur – het kabinet
Addendum op Code Goed Openbaar Bestuur specifiek voor digitalisering.
Niet bindend.
De code wordt met deze brief meegestuurd.
Calculemus-FLINT – het kabinet
Systematiek om transparantie van gemaakte keuzes in algoritmen te vergroten. Om wet-
en regelgeving transparanter te maken worden de juridische bronnen waar publieke diensten
op gebaseerd zijn, expliciet gemaakt.
Niet bindend: hulpmiddel.
Wordt verder uitgewerkt a.d.h.v casuïstiek.
Artificial Intelligence Impact Assessment – ECP
De (AIIA) helpt bedrijven artificiële intelligentie verantwoord in te zetten door
een kader te bieden waarmee een bedrijf kan toetsen wat de impact van het algoritme
op mensen is.
Niet bindend: hulpmiddel.
Het AIIA is te vinden op de site van het ECP.
Algoritmeregister (of alternatief instrument met vergelijkbare functie) in ontwikkeling
– het kabinet
Het bieden van een standaardformat om overzicht te houden – en transparant te zijn
over- de inzet van algoritmen.
N.t.b.
Het kabinet zal een proef doen met een concreet transparantie-instrument, zoals een
algoritmeregister.
Code Kinderrechten Online – het kabinet
Het bieden van handvatten aan overheden en bedrijven om de rechten van kinderen online
te borgen.
Niet bindend
Het bieden van handvatten om de rechten van kinderen online te borgen
Beleidsagenda normering en toezicht algoritmen
De resultaten van de projectgroep indiceren dat nadere acties nodig zijn. Daartoe
is de volgende beleidsagenda opgesteld met acties ten aanzien van de normering van
algoritmen en het toezicht op algoritmen.
Normering van algoritmen
Het kabinet heeft eerder in de kabinetsreactie op drie algoritmeonderzoeken geconcludeerd
dat algoritmen niet in een juridisch vacuüm vallen.16 Het huidig (algemene) wettelijk kader bestaat uit onder meer mensenrechtenverdragen,
de Grondwet, de Algemene wet bestuursrecht (Awb), het Burgerlijk Wetboek (BW), gelijke
behandelingswetgeving, en de Algemene verordening gegevensbescherming (AVG). Wel is
een aantal knelpunten en vraagstukken met betrekking tot deze kaders gesignaleerd.17 Ook is vastgesteld dat deze kaders veelal uit open normen bestaan, waardoor onzekerheid
bestaat over de praktische uitleg van deze normen wanneer een organisatie algoritmen
inzet. Tenslotte is aangeven dat ook sectorale interventies nodig kunnen zijn.18 Door het kabinet is in de eerdere brief over «Waarborgen tegen de risico’s van data-analyse»
in dit verband een aantal mogelijke aanpassingen van wetgeving besproken. Als reactie
op het Witboek AI van de Europese Commissie (EC)19 onderschreef het kabinet voorts dat een additioneel Europees wetgevend instrument
voor artificiële intelligentie (met een hoog risico) van toegevoegde waarde kan zijn.
Het kabinet wees daarbij op de noodzaak van een nadere uitwerking van gedane voorstellen,
met aandacht voor o.a. een adequate aansluiting op bestaande wettelijke kaders.20 Momenteel werkt de EC aan de uitwerking van een wetgevend kader voor mensgerichte
AI. Dit voorstel is 21 april jl. gepubliceerd.21
Uit de externe consultatie van de projectgroep – waarvoor enkele stakeholders uit
de wetenschap, medeoverheden, het maatschappelijk middenveld en het bedrijfsleven
zijn benaderd – en uit de lopende beleidsontwikkeling in de EU komt het belang van
transparantie veelvuldig naar voren. Dit betreft zowel transparantie over de inzet
van algoritmen alsook over hun werking en (potentiële) impact in zowel de publieke
als private sector. Er zijn reeds een aantal bestaande verplichtingen voor de private
en de publieke sector die bijdragen aan transparantie van algoritmen. Vanwege het,
terecht, onderstreepte belang van transparantie is het goed om op te merken dat aspecten
zoals kennis, organisatiecultuur en bewustzijn essentieel zijn voor het versterken
van transparantie. De balans tussen transparantieverplichtingen en deze factoren die
(ook) van invloed zijn is en blijft een punt van aandacht. Zo is er nog beperkt zicht
op hoe de bestaande verplichtingen vanuit een burgerperspectief concreet uitwerken.
Daarnaast lijkt betrokkenheid van en bewustwording onder burgers bij de ontwikkeling
en/of de inzet van nieuwe technologieën vooralsnog beperkt. Digitaal burgerschap is
echter van belang om mee te kunnen komen in een sterk technologische samenleving.
Het kabinet organiseerde daarom burgerdialogen en ontwikkelde lesmateriaal zoals het
spel «TechTwijfels» dat scholieren laat discussiëren over kansen en risico’s van technologieën
en ook ontwikkelde het kabinet een Code Kinderrechten Online.22
Het kabinet constateert dat de bestaande kaders verder moeten worden ingevuld. Dit
kan gebeuren door rechtsontwikkeling, maar gezien de urgentie wil het kabinet ook
zelf stappen zetten om te komen tot een eenduidiger juridisch kader omtrent de inzet
van algoritmen. In reactie op de motie Azarkan, waarin wordt verzocht te komen tot
een wettelijk kader voor AI23, heeft de Minister voor Rechtsbescherming toegezegd24 u te informeren over het proces omtrent aanvullende wettelijke waarborgen. In deze
agenda wordt dit proces weergegeven. Daarnaast wordt gewerkt aan additionele wettelijke
waarborgen in Europees of nationaal verband. Dit vraagt om een actieve en gebalanceerde
benadering met de volgende acties25:
Actie 1: Het kabinet pakt geconstateerde (juridische) knelpunten met betrekking tot de algemene
kaders met voorrang aan:
a. Het kabinet zal een additionele wettelijke grondslag voor de verwerking van bijzondere
persoonsgegevens in het leven roepen die ertoe strekt het onder strenge voorwaarden
mogelijk te maken gegevens te verwerken om discriminatie in een algoritmisch model
te voorkomen.26
b. Het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) zal in opdracht van
het kabinet onderzoek laten verrichten naar hoe de invulling van het begrip «persoonsgegeven»
in de AVG verandert door nieuwe technische mogelijkheden waarmee eerder anonieme gegevens
toch tot individuen kunnen worden herleid. Hiermee wordt naar verwachting duidelijkheid
verschaft over de reikwijdte van de AVG en daarmee over de mate waarin deze verordening
burgers bescherming biedt wanneer algoritmen worden ingezet.27
Actie 2: Het kabinet draagt actief bij aan de ontwikkeling en uitwerking van verwachte Europese
initiatieven die raken aan de normering, toezicht en transparantie van algoritmen:
a. Het kabinet zet, in lijn met de kabinetsappreciatie van het witboek AI28, door actieve participatie in Europese gremia in op verantwoorde en mensgerichte
AI.
b. De EC heeft 21 april jl. een wetgevend voorstel voor AI gepubliceerd.29 Het kabinet heeft uw Kamer via de BNC-procedure geïnformeerd over haar appreciatie
van dit voorstel.
c. In Raad van Europa verband wordt een haalbaarheidsstudie naar een juridisch raamwerk
met betrekking tot AI uitgevoerd in het licht van de fundamentele rechten, de democratie
en de rechtsstaat. Nederland participeert actief in dit proces, dat eind dit jaar
zal worden afgerond.
Actie 3: Het kabinet zorgt dat er voldoende wettelijke waarborgen voor de inzet van algoritmen
zijn. Voor zover het voorstel van de EC (zie actie 2) hier voldoende waarborgen voor
bevat, sluit het kabinet hierbij aan.
a. Op basis van de opgedane ervaring met de richtlijnen voor data-analyse door de overheid
(zie actie 4) zal het kabinet, in overleg met gemeenten en uitvoeringsorganisaties,
een voorstel publiceren voor het mogelijk wettelijk verankeren van aanvullende waarborgen.30
b. Zoals toegelicht in de brief «wettelijke waarborgen tegen de risico's van data-analyse
voor de overheid»31 kan het daarbij onder meer gaan over verplichtingen omtrent het informeren van het
publiek over de inzet van data-analyse, naast het informeren van individuele betrokkenen
en het concretiseren van de verplichting om uitleg te geven over de werking van algoritmen.
c. Bij het formuleren van het voorstel zal het gebruikelijk traject met onder meer een
internetconsultatie en het betrekken van externe experts, uitvoeringsorganisaties
en andere belanghebbenden worden gevolgd.
Actie 4: Parallel werkt het kabinet verder aan het uitdragen en doorontwikkelen van de richtlijnen
voor data-analyse door de overheid.
a. De richtlijnen kennen vooralsnog geen verplichtend karakter. Het kabinet zal dit jaar
met overheidsorganisaties de richtlijnen nadrukkelijker onder de aandacht brengen
wanneer deze organisaties data-analyses uitvoeren.
b. Daarnaast worden deze richtlijnen doorlopend, in samenspraak met overheidsorganisaties,
aangescherpt en zijn daarmee een »levend document». De geüpdatete versie van de richtlijnen
2021 zijn onlangs gepubliceerd.32
c. Het kabinet stelt op verzoek van uw Kamer naar aanleiding van de aangenomen motie
Azarkan33 een commissie in die de richtlijnen zal toetsen, onder meer opdat deze voldoen aan
de van toepassing zijnde wet- en regelgeving. Het kabinet zal ethische en juridische
experts in deze commissie betrekken.
Actie 5: In aanvulling op mogelijke regels zoekt het kabinet naar een passend instrument voor
overheden om transparant te zijn over de inzet van algoritmen. Het onderzoekt derhalve
naar aanleiding van de aangenomen motie Klaver c.s.34, hoe een algoritmeregister bij kan dragen aan het vergroten van transparantie over
de inzet van algoritmen door overheden.
a. Eerst wordt gekeken naar de ervaringen met registers van gemeenten, zoals die van
Amsterdam, Utrecht en Rotterdam, en hoe die betrokken kunnen worden bij onderstaand
genoemde proef.
b. Op basis van deze verkenning zal het kabinet een proef uitvoeren met een concreet
transparantie-instrument, zoals een algoritmeregister.
Actie 6: Het kabinet werkt verder aan de ontwikkeling en toepassing van instrumenten die overheden
en bedrijven ondersteunen bij het nakomen van bestaande wettelijke verplichtingen
en die (daarmee) helpen AI en algoritmen op verantwoorde wijze in te zetten:
a. Het kabinet gaat zich op verzoek van het lid Moorlag35 van uw Kamer inzetten om het bedrijfsleven in samenwerking met consumentenorganisaties
te bewegen tot het opstellen van een gedragscode op het gebied van online keuze beïnvloeding
door gebruik van consumentendata en algoritmes.
b. Relevante instrumenten worden bij elkaar gebracht in de «toolbox ethisch verantwoord
innoveren» die online beschikbaar is gesteld.36
Daarbij heeft het kabinet extra aandacht voor het voorkomen van inbreuken op mensenrechten.
Het betreft onder meer het eerdergenoemde impact assessment voor mensenrechten bij
de inzet van algoritmen (IAMA), de Handreiking systeemprincipes non-discriminatie
en de Code Goed Digitaal Openbaar Bestuur.
c. Het kabinet zal het Rathenau Instituut vragen om een onderzoek te doen in de uitvoeringspraktijk
hoe kaders en instrumenten die gericht zijn op de bescherming van mensenrechten bij
de ontwikkeling en het gebruik van algoritmische systemen zo goed mogelijk geoperationaliseerd
(kunnen) worden.
Actie 7: Het kabinet blijft mensgerichte AI en verantwoorde inzet van algoritmen ondersteunen
via onderzoek en experimenten.
a. Het kabinet stelt financiële middelen beschikbaar ten behoeve van experimenteren met
en opschalen van mensgerichte AI (AI die mensenrechten borgt en versterkt). Dat doet
het kabinet samen met partners binnen de Nederlandse AI Coalitie (NLAIC). Een voorbeeld
hiervan is het Ethical Legal and Societal Aspects Lab (ELSA lab) «Voorkomen armoede
en schulden».
b. Het kabinet zal aan het eind van dit jaar met een rapportage komen met daarin opgenomen
een dwarsanalyse van de belangrijkste bevindingen uit de verschillende experimenten
en projecten en antwoord geven op de vraag of en in hoeverre mensgerichte AI daadwerkelijk
geborgd en versterkt zijn.
Toezicht
Op 20 december 2019 is het onderzoek «Toezicht op het gebruik van algoritmen door
de overheid» aangeboden aan uw Kamer.37 Op 20 april 2020 volgde hierop de kabinetsreactie.38
Op basis van het verrichte onderzoek en het werk van de projectgroep constateert het
kabinet dat het bestaande externe toezicht op de overheid in beginsel geen juridische
lacunes kent en voldoende integraal is, maar in de uitvoering enige fragmentatie kent.
Voor effectief toezicht is het belangrijk dat toezichthouders vanuit hun eigen expertise
en toezichtsdomein toezicht houden. Dit vereist kennis en samenwerking. Met het oprichten
van de werkgroep toezicht op AI in het voorjaar van 2020 heeft de samenwerking tussen
toezichthouders een meer structurele vorm gekregen. Voorts zijn ook interne toezichthouders
op de overheid zoals de Audit Dienst Rijk (ADR) ten aan zien van audits en de Algemene
Rekenkamer (ARK) als het gaat om onderzoek, actief met het verder ontwikkelen van
toezicht op inzet van algoritmen door de overheid.
Het generieke, sector overstijgende toezicht voor zowel overheid als private sector
kan wel nog verder worden versterkt. In aanvulling op reeds lopende acties is blijvende
aandacht nodig voor het versterken van beschikbare capaciteit van toezichthouders
en de samenwerking van de gezamenlijke toezichthouders.
Ook moet integraliteit van het toezicht periodiek worden geëvalueerd om ervoor te
zorgen dat specifieke algoritmen bij het toezicht niet tussen wal en schip kunnen
vallen. Daarnaast kan de samenhang in toetsingskaders verder worden versterkt om ervoor
te zorgen dat er één duidelijke maatstaf en daarmee consistentie van toezicht is voor
organisaties die algoritmen in zetten. Daarom komt het kabinet tot de hieronder volgende
acties in aanvulling op de reeds lopende initiatieven vanuit de toezichthouders. Waarbij
opgemerkt dat deze acties parallel lopen aan discussies over het versterken van capaciteit
van specifieke toezichthouders als de Autoriteit Persoonsgegevens (AP) waarover u
separaat bent geïnformeerd.39
Actie 8: Het kabinet versterkt de integraliteit van het toezicht op algoritmen en ondersteunt
toezichthouders als de ARK en de ADR om te komen tot één consistent toezichtskader
voor overheidsorganisaties die algoritmen inzetten.
a. Voor normering van en toezicht op algoritmische data-analyse in de private sector
zet het kabinet in op het vergroten van de samenhang van het toezicht. Dit najaar
organiseert het kabinet in dat kader een rondetafelgesprek met de toezichthouders
op de inzet van algoritmen in de private sector om te borgen dat er goede en integrale
samenwerking plaatsvindt. Het kabinet zal uw Kamer hierover na afloop over informeren.
b. In 2022 laat het kabinet nogmaals een evaluatie van het toezichtlandschap op de inzet
van algoritmen uitvoeren.
c. De ADR werkt momenteel middels een aantal pilots aan de aanscherping van haar audit-methodiek.
Wanneer dit is afgerond zal door het kabinet een besluit worden genomen over een mogelijk
structurele auditrol van de ADR ten aanzien van het beoordelen van algoritmen binnen
het Rijk.
d. Het is van belang dat het toezichtskader aansluit op de richtlijnen voor data-analyse
door de overheid (zie onder stap 4 van «normering»). Het kabinet treedt hiertoe in
gesprek met de ADR en ARK.
Het kabinet heeft uw Kamer in deze brief geïnformeerd over reeds uitgevoerde en voorgenomen
acties die burgers de noodzakelijke bescherming moeten bieden wanneer algoritmen en
AI worden ingezet. Deze acties strekken er in hoofdzaak toe om zeker te stellen dat
er een robuust en gebalanceerd wettelijk kader is omtrent de inzet van algoritmen
en AI, dat dit kader consistent en praktisch toepasbaar is en dat er toezicht op de
naleving van deze wettelijke vereisten plaatsvindt. Alleen als aan deze voorwaarden
is voldaan, kunnen de maatschappelijke en innovatieve kansen van algoritmen en AI
op verantwoorde wijze benut worden en kunnen ze bijdragen aan het versterken van de
kwaliteit van de overheid en samenleving.
De Minister van Binnenlandse Zaken en Koninkrijksrelaties,
K.H. Ollongren
De Minister voor Rechtsbescherming,
S. Dekker
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
R.W. Knops
De Staatssecretaris van Economische Zaken en Klimaat,
M.C.G. Keijzer
Indieners
-
Indiener
K.H. Ollongren, minister van Binnenlandse Zaken en Koninkrijksrelaties -
Medeindiener
R.W. Knops, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties -
Medeindiener
M.C.G. Keijzer, staatssecretaris van Economische Zaken en Klimaat -
Medeindiener
S. Dekker, minister voor Rechtsbescherming