Lijst van vragen : Lijst van vragen over Overheidsbreed standpunt generatieve AI (Kamerstuk 26643-1331)
2025D27155 Lijst van vragen
De vaste commissie voor Digitale Zaken heeft een aantal vragen voorgelegd aan de demissionair
Minister van Binnenlandse Zaken en Koninkrijksrelaties over de brief d.d. 22 april
2025 inzake Overheidsbreed standpunt generatieve AI (Kamerstuk 26 643, nr. 1331).
De voorzitter van de commissie,
Wingelaar
Adjunct-griffier van de commissie,
Muller
Nr
Vraag
1
Hoe kan het overheidsbreed standpunt voor de inzet van generatieve AI ook voor externe
partijen die diensten leveren aan overheidsorganisaties, gaan gelden?
2
Hoe wordt bij het gebruik van generatieve AI door overheidsmedewerkers beoordeeld
of er sprake is van gevoelige of vertrouwelijke informatie? Wie beoordeelt dat? Welke
criteria en kaders gelden daarbij?
3
In hoeverre wordt er nu al gebruik gemaakt van generatieve AI door overheidsmedewerkers?
4
Heeft dit standpunt betrekking op het gebruik door overheidsmedewerkers bij het ontwikkelen
van beleid of ook op het gebruik ervan bij het beoordelen van allerlei aanvragen (bijvoorbeeld
vergunningen en subsidies) van burgers? Als dat laatste het geval is, in hoeverre
kan dat zonder aanpassing van wet- en regelgeving? Of is er nog aanpassing van wet-
en regelgeving nodig? Zo ja, welke wet- en regelgeving?
5
Hoe breed wordt generatieve AI momenteel in de overheid gebruikt? In welke domeinen
en met welke doelen worden modellen vooral gebruikt?
6
Wordt generatieve AI momenteel gebruikt in het opstellen van overheidscommunicatie
of beleidsstukken? Zo ja, kunt u aangeven hoeveel overheidsberichten en beleidsteksten
nu door AI worden geschreven?
7
Hecht u er waarde aan dat burgers die informatie van de overheid ontvangen of opzoeken,
teksten lezen die daadwerkelijk door mensen zijn geschreven?
8
Garandeert u dat overheidscommunicatie en beleidsstukken altijd door mensen worden
geschreven, en hierin geen gebruik wordt gemaakt van generatieve AI?
9
Indien er generatieve AI is gebruikt in het schrijven van een overheidsbericht of
een beleidsstuk, hoe kunnen burgers dan weten of het afkomstig is van een mens of
een AI-model?
10
Welke mogelijkheden heeft u om teksten die (mede) door generatieve AI zijn geschreven,
te voorzien van een disclaimer dat de tekst afkomstig is van een AI-model?
11
Hoe kunnen burgers zeker weten dat de overheid op een menselijke manier met hen communiceert,
als er steeds meer generatieve AI door de overheid wordt gebruikt?
12
Welke rol speelt generatieve AI in de taakstelling van de overheid om te bezuinigen
op het eigen overheidsapparaat? Welke taken worden volgens dit kabinet straks opgevuld
door generatieve AI en is deze visie daar ook op van toepassing?
13
Hoe jaagt u aan dat effectieve AI-toepassingen makkelijk gedeeld en gebruikt worden
tussen verschillende overheden?
14
Hoe voorkomt u dat onjuiste informatie uit een generatieve AI-toepassing wordt verwerkt
in overheidsberichten en beleidsstukken?
15
Hoe garandeert u de echtheid en betrouwbaarheid van uitingen die (mede) door generatieve
AI tot stand komen?
16
Wie is er verantwoordelijk als door generatieve AI onjuiste informatie in een officieel
document terechtkomt?
17
Houdt u in de overheidsbrede visie over generatieve AI rekening met de ingebouwde
bias en discriminatoire werking van dergelijke systemen?
18
Komt er een klachtmechanisme voor burgers die denken dat zij benadeeld zijn door een
AI-gestuurde beslissing?
19
Hoe wordt de betrokkenheid van de Tweede Kamer, provinciale staten, gemeenteraden
en waterschappen geborgd in deze visie? Hoe zorgt u ervoor dat de relevante vertegenwoordigers
mee kunnen besluiten over het gebruik van generatieve AI?
20
Welke onafhankelijke toezichthouders zijn betrokken bij het beoordelen van AI-toepassingen
binnen de overheid? Welke mogelijkheden hebben zij om gebruik stil te leggen als het
niet in lijn is met de wet of met de visie?
21
Welke gevolgen heeft het breder gebruiken van generatieve AI in de overheid op het
vertrouwen dat mensen hebben in het openbare bestuur, omdat zij aannemen dat ze communiceren
met mensen en niet met AI-gegenereerde teksten?
22
Blijft generatieve AI altijd een hulpmiddel voor medewerkers en zullen mensen altijd
verantwoordelijk blijven voor de communicatie, het beleid en de beslissingen die burgers
aangaan?
23
Wat doet uw visie om situaties zoals in Amsterdam, met de «Slimme Check», te voorkomen?1
24
Op welke wijze wordt binnen alle overheidsorganisaties geborgd dat de handreiking
daadwerkelijk wordt toegepast?
25
Wordt er voorzien in gestructureerde (bij- en na)scholing voor compliance officers,
juristen en ontwikkelaars met betrekking tot generatieve AI?
26
Hoe moeten de verschillende expertises die betrokken worden bij het bouwen en aanschaffen
van generatieve AI worden geworven (rekening houdend met de arbeidstekorten in deze
sector)? Kan het kabinet daar ook over adviseren?
27
Wat zou de meerwaarde van een ethische commissie zijn voor een organisatie en waarom
is er gekozen om als advies te geven een ethische commissie te overwegen in plaats
van dit aan te bevelen?
28
Hoe worden organisaties beoordeeld op de aanbevelingen die worden gedaan in de handreiking?
Hoe wordt er geëvalueerd hoe deze handreiking overheidsbreed wordt opgepakt en toegepast?
29
Waarom wordt er in de handreiking aangegeven dat er bij voorkeur in het algoritmeregister
geregistreerd moet worden en niet standaard?
30
Hoe wordt het Algoritmekader in overheidsorganisaties gestandaardiseerd?
31
In welke mate is het Algoritmekader sluitend genoeg dat het goede handvatten geeft
en open genoeg dat overheidsorganisaties er maatwerk op kunnen toepassen?
32
Hoe wordt er op toegezien dat met alle kaders en impact-assessments daadwerkelijk
uitgesloten wordt dat grondrechten geschonden worden?
33
Hoe wordt er toegezien op de aanbevelingen over de risicoanalyses en of deze ook daadwerkelijk
worden uitgevoerd?
34
Wat wordt er bedoeld met «verken mogelijkheden van Europese of Nederlandse AI gebruik
te maken»? Hoe ziet dit er volgens het kabinet uit?
35
Hoe wordt in de praktijk gecontroleerd of AI-toepassingen echt voldoen aan de bestaande
wet- en regelgeving?
36
Waarom is ervoor gekozen om in het nieuwe standpunt minder nadruk te leggen op risicoanalyses?
37
Welke onderdelen van het voorlopige AI-standpunt uit 2023 werden precies als te streng
ervaren door overheidsorganisaties?
38
Welke overheden en departementen zijn allemaal betrokken geweest bij het uitwerken
van dit standpunt?
39
Wanneer wordt generatieve AI volgens u «optimaal benut»?
40
Is het beschikken over een risicoanalyse en waar relevant een Data Protection Impact
Assessment (DPIA) een randvoorwaarde voor het in gebruik nemen van een AI-toepassing
binnen de overheid?
41
Als er AI-toepassingen worden afgenomen zonder te beschikken over een risicoanalyse,
wordt deze dan buiten werking genomen? Hoe ziet u hierop toe?
42
Welke partijen bedoelt u als u zegt dat risicoanalyses met input van een «zo divers
mogelijke groep experts binnen of buiten de organisatie» moet worden opgesteld?
43
Wie bepaalt welke methode geschikt is voor de verplichte risicoanalyse bij het inzetten
van generatieve AI?
44
Hoe wordt gehandhaafd dat ambtenaren geen AI-toepassingen gebruiken die onder consumentenvoorwaarden
vallen?
45
Is er al een concreet plan voor het lokaal draaien van AI-modellen op overheidssystemen?
46
Dienen bij het inkopen van generatieve AI-modellen en/of -applicaties ook afspraken
gemaakt te worden over het vermijden van strategische afhankelijkheden van één of
enkele (niet-Europese) partijen?
47
Hoe voorkomt u dat overheden strategisch afhankelijk worden van één of enkele AI-leveranciers?
48
Welke eisen stelt u aan de manier waarop AI-modellen getraind zijn?
49
Mogen overheidsinstanties gebruikmaken van generatieve AI-modellen die getraind zijn
op een manier dat het auteursrecht van makers is geschonden?
50
Stelt u als eis aan AI-modellen die de overheid afneemt dat makers altijd eerlijk
gecompenseerd zijn als modellen getraind zijn op hun werk?
51
Hoe breed is de inzet van generatieve AI binnen overheidsorganisaties nu?
52
In welke afdelingen en binnen welke organisaties wordt generatieve AI nu het meest
gebruikt? Kunt u dit uitdrukken in harde cijfers?
53
Hoe dienen medewerkers geïnformeerd te worden over het effectieve en verantwoorde
gebruik van deze technologie? Wanneer is daar volgens u sprake van?
54
Hoe voorkomt u dat medewerkers gebruik maken van reguliere toepassingen, zoals ChatGPT?
55
Hoe groot is nu het gebruik van AI-toepassingen onder reguliere consumentenvoorwaarden
binnen de overheid?
56
Waarom wordt het gebruik van Europese AI-toepassingen alleen «aanbevolen» en niet
afgedwongen?
57
Hoe zorgt u ervoor dat overheden niet alsnog massaal gebruik maken van Amerikaanse
of Chinese AI-toepassingen, die de strategische afhankelijkheid van niet-Europese
bedrijven alleen maar doen toenemen?
58
Hoe ziet u erop toe dat alleen overheidsspecifieke AI-toepassingen binnen organisaties
worden gebruikt? Wat zijn de gevolgen als iemand wél onder reguliere consumentenvoorwaarden
AI-toepassingen gebruikt?
59
Wat doet u om de betrouwbaarheid van Nederlandse taalmodellen in generatieve AI te
doen toenemen?
60
Welke rol ziet u uiteindelijk voor AI-toepassingen die in de voorgenomen Nederlandse
AI-faciliteit worden ontwikkeld? Committeert de overheid zich aan het afnemen van
deze toepassingen?
61
Reguleert of normeert u ook het gebruik van AI-modellen op basis van hun CO2-uitstoot?
62
Hoe jaagt u duurzaamheid aan binnen het gebruik van AI-toepassingen, wetende dat deze
een grote uitstoot van CO2 kennen door de benodigde rekenkracht?
63
Volgt u de analyse van de Autoriteit Persoonsgegevens dat reguliere AI-toepassingen
onder consumentenvoorwaarden niet acceptabel is voor gebruik door overheden, omdat
er oneigenlijk met data wordt omgegaan?
64
Welke gevolgen heeft de overheidsbrede visie op het gebruik van telefoons, computers
en apps waar AI-toepassingen onder consumentenvoorwaarden zonder opt-out standaard
worden ingebouwd? Gaat de voorkeur uit naar het gebruiken van platforms waar geen
AI-toepassingen zijn ingebouwd?
65
Welke gevolgen heeft de overheidsbrede visie op het gebruiken van Copilot binnen Microsoft
Teams door overheden? Is dit voortaan niet meer toegestaan?
66
Heeft u deze visie afgestemd met de verschillende gemeenten die nu juist experimenteren
met het gebruik van Copilot?
67
Hoe ziet u erop toe dat de AI-geletterdheid van medewerkers feitelijk toeneemt? Bent
u bereid hierin dwingend op te treden om cursussen en leertrajecten een voorwaarde
te maken voor het mogen gebruiken van AI-toepassingen?
68
Hoe bent u bereid inzicht te krijgen in het gebruik van AI door toeleveranciers waar
de overheid mee samenwerkt? Zullen zij een nieuwe mate van transparantie moeten geven
over hun werkprocessen voordat overheden diensten van hen afnemen?
69
Wanneer is er volgens u sprake van een «gecontroleerde niet-productieomgeving» en
welke data mag hierin wél verwerkt worden?
70
Bent u van mening dat er één centrale omgeving/'proeftuin» moet zijn waarin alle overheden
veilig kunnen experimenteren met generatieve AI, zodat kennis per definitie wordt
uitgewisseld met alle betrokkenen?
71
Welke «betere afspraken» beoogt u te maken met leveranciers voor de inkoop van generatieve
AI-toepassingen?
72
Hoe voorkomt u dat het inrichten van verschillende proeftuinen voor overheden niet
als gevolg heeft dat kennis niet voortvarend wordt uitgewisseld?
73
Vindt u dat AI-toepassingen die door overheden worden gebruikt altijd volledig uitlegbaar
moeten zijn, zodat keuzes door de overheid altijd goed kunnen worden verantwoord?
74
Hoe betracht u uitlegbaarheid en verantwoording bij het gebruik van AI-toepassingen
die níet open source zijn? Welke mogelijkheden zijn er om gesloten modellen alsnog
transparanter te maken?
75
Waarom kiest u er niet voor om uitsluitend open source-applicaties te gebruiken, in
plaats van dit enkel aan te bevelen?
76
Hoe gaat u het gebruik van open source-applicaties daadwerkelijk doen groeien als
u slechts een aanbeveling voorstelt en geen harde doelstelling?
77
Wat verwacht u precies van overheden als u hen vraagt om «[er] rekening mee te houden»
dat AI-modellen kunnen hallucineren?
78
Welke technieken zijn er om de kans op fouten door AI-toepassingen te verkleinen en
wat doet u om deze technieken zo breed mogelijk toe te passen?
79
Hoe voorkomt u dat foute informatie uit een AI-toepassing leidt tot een beslissing
die nadelig uitpakt voor burgers?
80
Kunnen burgers zich beroepen op het recht op inzage van hoe hun gegevens zijn verwerkt
in een AI-toepassing die wordt betrokken in de besluitvorming van de overheid?
81
Hoe gaat u samenwerking tussen overheden op het gebied van AI-toepassingen gebruiken
en ontwikkelen vormgeven? Wanneer krijgt deze samenwerking vorm?
82
Welke garanties vraagt u bij het inkopen van AI-toepassingen voor het respecteren
van auteursrecht en het verzekeren van een eerlijke compensatie voor makers wiens
producties hierin zijn verwerkt?
83
Welke concrete pilots met generatieve AI zijn sinds 2024 gestart binnen de rijksoverheid,
provincies of gemeenten?
84
Hoe wordt vastgesteld of een AI-toepassing daadwerkelijk bijdraagt aan publieke doelen
zoals genoemd in de handreiking?
85
Welke maatregelen zijn getroffen bij de reeds gestarte pilots om ambtenaren AI-geletterd
te maken, zoals aanbevolen in hoofdstuk 4.2 van de handreiking?
86
Is het oprichten van een ethische commissie door overheidsorganisaties verplicht of
slechts een aanbeveling?
X Noot
1
Trouw, 6 juni 2025, «Amsterdam wilde met AI de bijstand eerlijker en efficiënter maken.
Het liep anders.»
Ondertekenaars
-
Eerste ondertekenaar
N.T.P. Wingelaar, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
S.R. Muller, adjunct-griffier
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.