Lijst van vragen en antwoorden : Lijst van vragen en antwoorden over Overheidsbreed standpunt generatieve AI (Kamerstuk 26643-1331)
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 1385
LIJST VAN VRAGEN EN ANTWOORDEN
Vastgesteld 29 augustus 2025
De vaste commissie voor Digitale Zaken heeft een aantal vragen voorgelegd aan de Staatssecretaris
van Binnenlandse Zaken en Koninkrijksrelaties over de brief van 22 april 2025 inzake
Overheidsbreed standpunt generatieve AI (Kamerstuk 26 643, nr. 1331)
De Staatssecretaris heeft deze vragen beantwoord bij brief van 29 augustus 2025. Vragen
en antwoorden zijn hierna afgedrukt.
De voorzitter van de commissie, Wingelaar
Adjunct-griffier van de commissie, Muller
Vragen en antwoorden
Vraag 1: Hoe kan het overheidsbreed standpunt voor de inzet van generatieve AI ook
voor externe partijen die diensten leveren aan overheidsorganisaties, gaan gelden?
Het overheidsbrede standpunt1 is van toepassing op alle generatieve AI-toepassingen die worden ingezet door de
overheid of in opdracht van de overheid. Iedere overheidsorganisatie blijft verantwoordelijk
voor het veilige gebruik van data, resultaten en processen, ook wanneer de organisatie
deze werkzaamheden uitbesteedt. Dit vereist heldere afspraken met en transparantie
van externe partijen. Deze afspraken kunnen worden vastgelegd in bijvoorbeeld inkoopvoorwaarden.
Net als voor privacy en informatiebeveiliging, zullen de vereisten die specifiek gelden
voor generatieve AI ook een plek moeten krijgen in het inkoopproces. Daarvoor loopt
momenteel reeds een traject.
Vraag 2: Hoe wordt bij het gebruik van generatieve AI door overheidsmedewerkers beoordeeld
of er sprake is van gevoelige of vertrouwelijke informatie? Wie beoordeelt dat? Welke
criteria en kaders gelden daarbij?
Het is aan de overheidsorganisaties die generatieve AI-toepassingen willen inzetten
om uitvoering te geven aan de in het standpunt beschreven randvoorwaarden. Bescherming
van gevoelige of vertrouwelijke informatie kan bij gebruik van generatieve AI, net
als bij andere typen IT-systemen, beoordeeld worden via een risicoanalyse zoals de
Baseline Informatiebeveiliging Overheid (BIO). In het geval dat er sprake is van de
verwerking van persoonsgegevens bij de (beoogde) inzet van generatieve AI, is de Algemene
Verordening Gegevensbescherming (AVG) van toepassing en moet er een (pre-scan) DPIA
worden uitgevoerd als verplichte risicoanalyse. Om deze overheidsorganisaties te ondersteunen
bij de concrete doorvertaling van dit standpunt, kunnen zij gebruik maken van bijvoorbeeld
de overheidsbrede handreiking verantwoorde inzet generatieve AI2 en het Algoritmekader3.
Vraag 3: In hoeverre wordt er nu al gebruik gemaakt van generatieve AI door overheidsmedewerkers?
Binnen (decentrale) overheden wordt al enige tijd gewerkt aan de inzet van generatieve
AI. Voorbeelden zijn (interne) AI-chatbots die interne overheidsinformatie gemakkelijker
vindbaar maken, AI-toepassingen die worden ingezet voor metadata-extractie, of AI-toepassingen
die als ondersteuning worden ingezet bij bezwaarschrift- of WOO-procedures. Zie in
dat kader ook de verzamelbrief van 18 december 20244 waarin wordt ingegaan op al lopende generatieve AI-initiatieven.
Meer concrete voorbeelden leest u in de beantwoording bij vraag 83.
Vraag 4: Heeft dit standpunt betrekking op het gebruik door overheidsmedewerkers bij
het ontwikkelen van beleid of ook op het gebruik ervan bij het beoordelen van allerlei
aanvragen (bijvoorbeeld vergunningen en subsidies) van burgers? Als dat laatste het
geval is, in hoeverre kan dat zonder aanpassing van wet- en regelgeving? Of is er
nog aanpassing van wet- en regelgeving nodig? Zo ja, welke wet- en regelgeving?
Generatieve AI is AI die content genereert, bijvoorbeeld in de vorm van tekst, beeld
of computercode. Deze technologie kan gebruikt worden bij allerlei typen werkzaamheden
van de overheid, niet alleen bij het ontwikkelen van beleid. Generatieve AI kan ook
voor ondersteunende processen ten behoeve van het beoordelen van aanvragen worden
ingezet, maar voor zover mij bekend worden er geen generatieve AI-toepassingen ingezet
om besluiten te laten nemen.
Omdat het standpunt tot stand is gekomen op basis van brede interdepartementale en
interbestuurlijke afstemming – in samenspraak met onder andere VNG, IPO de Unie van
Waterschappen – hebben de betrokken (mede)overheden zich hieraan gecommitteerd. Gezien
deze gezamenlijke lijn en al een bestaand juridisch kader zie ik op dit moment geen
noodzaak voor specifieke aanpassingen in wet- en regelgeving om uitvoering aan het
standpunt te kunnen geven. Wel is in 2024 een «reflectiedocument algoritmische besluitvorming
en de Algemene wet bestuursrecht» opengesteld voor internetconsultatie. Hierin komt
onder meer de vraag aan de orde of de Algemene wet bestuursrecht voldoende waarborgen
bevat in geval besluiten worden vormgegeven met algoritmen. Uw Kamer ontvangt binnenkort
een analyse van de opbrengsten van deze internetconsultatie5.
Vraag 5: Hoe breed wordt generatieve AI momenteel in de overheid gebruikt? In welke
domeinen en met welke doelen worden modellen vooral gebruikt?
Zie de beantwoording bij vraag 3 en 83.
Vraag 6: Wordt generatieve AI momenteel gebruikt in het opstellen van overheidscommunicatie
of beleidsstukken? Zo ja, kunt u aangeven hoeveel overheidsberichten en beleidsteksten
nu door AI worden geschreven?
Veel rijksorganisaties experimenteren momenteel op basis van de handreiking met generatieve
AI. Zij kijken daarbij naar hoe deze nieuwe technologie op een verantwoorde wijze
kan worden ingezet voor overheidscommunicatie en voor beleidsstukken. Dit betreft
doorgaans pilots die worden uitgevoerd in een veilig afgeschermde testomgeving. Deze
pilots hebben niet tot doel om de producten te publiceren.
Niet valt uit te sluiten dat communicatie-uitingen tot stand zijn gekomen met behulp
van generatieve AI. Op dit moment voert het Ministerie van AZ een inventarisatie uit
over de inzet van generatieve AI in de overheidscommunicatie.
Vraag 7: Hecht u er waarde aan dat burgers die informatie van de overheid ontvangen
of opzoeken, teksten lezen die daadwerkelijk door mensen zijn geschreven?
Vraag 8: Garandeert u dat overheidscommunicatie en beleidsstukken altijd door mensen
worden geschreven, en hierin geen gebruik wordt gemaakt van generatieve AI?
Vraag 9: Indien er generatieve AI is gebruikt in het schrijven van een overheidsbericht
of een beleidsstuk, hoe kunnen burgers dan weten of het afkomstig is van een mens
of een AI-model?
Vraag 10: Welke mogelijkheden heeft u om teksten die (mede) door generatieve AI zijn
geschreven, te voorzien van een disclaimer dat de tekst afkomstig is van een AI model?
Vraag 11: Hoe kunnen burgers zeker weten dat de overheid op een menselijke manier
met hen communiceert, als er steeds meer generatieve AI door de overheid wordt gebruikt?
Vraag 7, 8, 9, 10, 11, 14 en 15 worden hieronder samen beantwoord:
Ik hecht veel waarde aan een responsieve en mensvriendelijke overheid waarbij burgers
zelf een keuze kunnen maken via welk kanaal zij met de overheid willen communiceren.
Daarbij moet overheidscommunicatie altijd betrouwbaar en transparant zijn. Momenteel
wordt het gesprek gevoerd over de wenselijkheid van door generatieve AI tot stand
gekomen overheidscommunicatie, bijvoorbeeld in het directe contact met de burger.
Als generatieve AI wordt ingezet moet, conform de handreiking generatieve AI en de
transparantieverplichtingen uit de Europese AI-verordening (art. 50, lid 4), AI-gegenereerde
content als zodanig herkenbaar zijn. Dit betekent dat als AI wordt ingezet in overheidscommunicatie,
menselijke toetsing en redactionele controle voor publicatie verplicht is. Dit moet
voorkomen dat eventuele onjuiste informatie die met generatieve AI-toepassingen is
gecreëerd in communicatie-uitingen van de overheid terechtkomt. Via de AI-verordening
eist Europa ook dat aanbieders van AI-modellen voor algemene doeleinden informatie
over de werking van het model delen met ontwikkelaars die op dit model voortbouwen.
Ook moet bij alle door AI gegenereerde content duidelijk worden gemaakt dat het dit
het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk wordt welke content
tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd is.6 Deze verplichtingen gaan in vanaf 2 augustus 2025.
Als uit de vele pilots en experimenten die momenteel plaatsvinden blijkt dat generatieve
AI verantwoord kan worden ingezet voor direct contact met burgers, zal ik onderzoeken
op welke wijze duidelijk kan worden gemaakt dat een tekst tot stand is gekomen met
behulp van generatieve AI. Daarbij gelden vanaf 2 augustus 2026 transparantieverplichtingen
in het kader van de Europese AI-verordening. In het geval dat de overheid gegenereerde
inhoud gebruikt in openbare uitingen, volgt uit artikel 50 voor aanbieders van dit
soort AI-systemen de verplichting dat door AI gegenereerde inhoud wordt gemarkeerd
(in machineleesbaar formaat) en op die manier detecteerbaar is als kunstmatig gegenereerd
of gemanipuleerd. Daarnaast geldt voor gebruiksverantwoordelijken die een AI-systeem
gebruiken om content zoals deepfakes te genereren, de verplichting om duidelijk kenbaar
te maken dat de content kunstmatig is gecreëerd of gemanipuleerd.7
Vraag 12: Welke rol speelt generatieve AI in de taakstelling van de overheid om te
bezuinigen op het eigen overheidsapparaat? Welke taken worden volgens dit kabinet
straks opgevuld door generatieve AI en is deze visie daar ook op van toepassing?
Generatieve AI kan een rol spelen in het vergroten van de productiviteit van de overheid,
maar het is geen generieke oplossing voor de taakstelling. Effecten verschillen sterk
per taak. Zeker bij besluitvormende of contextgevoelige werkzaamheden is een menselijk
oordeel essentieel en kan AI zelfs belemmerend werken. De inzet van (generatieve)
AI moet daarom gericht en zorgvuldig zijn, met oog voor efficiëntie en inhoudelijke
kwaliteit. In het kader van de Nederlandse Digitaliseringsstrategie wordt verder verkend
hoe generatieve AI kan ondersteunen bij het sneller en slimmer uitvoeren van het werk
van overheden.8
Het overheidsbrede standpunt doet geen uitspraken over welke taken al dan niet met
generatieve AI kunnen worden ingevuld en welke impact dit naar verwachting heeft.
In de handreiking worden wel voorbeelden gegeven van mogelijke taken waarbij generatieve
AI kan ondersteunen.
Generatieve AI heeft het vermogen om tekst, beeld en geluid te produceren, wat bepaalde
taken en daarmee (delen van) banen kan ondersteunen of vervangen. De verwachting is
echter dat er ook nieuwe taken bijkomen – doordat deze nieuwe technologie nieuwe taken
creëert en/of doordat stijgende welvaart de vraag naar arbeid doet groeien.
Veranderende werkinhoud als gevolg van AI zal wel om aanpassing door ambtenaren en
overheidsorganisaties vragen, met of zonder taakstelling. Zie voor meer advies over
AI en de arbeidsmarkt het SER rapport van mei 20259.
Vraag 13: Hoe jaagt u aan dat effectieve AI-toepassingen makkelijk gedeeld en gebruikt
worden tussen verschillende overheden?
Als eerste doe ik dat door te zorgen dat effectieve AI-toepassingen bekend zijn bij
en gedeeld worden tussen verschillende overheden. Dit doe ik door de AI-Community
te versterken en op te schalen. Daarom is het Platform AI & Overheid opgericht (www.platformaioverheid.nl). Binnen deze community worden praktijkvoorbeelden gedeeld en wordt er door diverse
overheden kennis uitgewisseld.
Ten tweede werk ik samen met publieke dienstverleners en private partijen aan een
zogenoemde «doorbraakfaciliteit», waar impactvolle AI-toepassingen worden doorontwikkeld.
Deze AI-toepassingen hebben het potentieel om opgeschaald en geïmplementeerd te worden
bij meerdere overheidsorganisaties. Hiermee stimuleer ik hergebruik en bouw ik generieke
bouwblokken waar overheidsorganisaties gebruik van kunnen maken bij de ontwikkeling
van een AI-toepassing.
Ten derde investeer ik in een robuuste infrastructuur waar we AI modellen kunnen trainen
en doorontwikkelen. Dat doe ik door te investeren in krachtige computers die in staat
zijn om complexe berekeningen en data-analyses uit te voeren. De snelheid van deze
krachtige computers ligt veel hoger dan die van een gewone computer. Voor overheden
biedt een krachtige computer de mogelijkheid om grote hoeveelheden data snel en efficiënt
te verwerken. Dit is essentieel voor het trainen van AI-modellen en het uitvoeren
van geavanceerde analyses. Deze ontwikkeling hangt samen met het ingediend voorstel
aan EuroHPC, voor de AI Fabriek in Groningen.
Vraag 14: Hoe voorkomt u dat onjuiste informatie uit een generatieve AI-toepassing
wordt verwerkt in overheidsberichten en beleidsstukken?
Zie de beantwoording bij vraag 7 t/m 11.
Vraag 15: Hoe garandeert u de echtheid en betrouwbaarheid van uitingen die (mede)
door generatieve AI tot stand komen?
Zie de beantwoording bij vraag 7 t/m 11.
Vraag 16: Wie is er verantwoordelijk als door generatieve AI onjuiste informatie in
een officieel document terechtkomt?
Overheidsorganisaties zijn zelf verantwoordelijk voor het inrichten van de governance
rond generatieve AI en algoritmes in bredere zin. Het helder vastleggen van verantwoordelijkheden
maakt daar nadrukkelijk onderdeel van uit. Het Algoritmekader10 biedt handvatten voor organisaties om dit te doen, zoals het opstellen van een RACI-matrix
(Responsible, Accountable, Consulted & Informed).
Daarnaast bevat de Europese AI-verordening verplichtingen voor aanbieders van General
Purpose AI-modellen (GPAI). Dit zijn modellen die in staat zijn om veel verschillende
taken uit te voeren en in veel verschillende AI-systemen kunnen worden geïntegreerd.
Hieraan wordt gerefereerd als «AI-modellen voor algemene doeleinden». Aanbieders van
deze modellen zijn verplicht om informatie over de werking van het model te delen
met ontwikkelaars die op dit model voortbouwen. Ook moet duidelijk worden hoe het
auteursrecht wordt gerespecteerd en moet bij alle door AI gegenereerde content duidelijk
worden gemaakt dat het dit het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk
wordt welke content tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd
is.11 Deze verplichtingen gaan in vanaf 2 augustus 2025.
Zie ook de beantwoording bij vraag 22.
Vraag 17: Houdt u in de overheidsbrede visie over generatieve AI rekening met de ingebouwde
bias en discriminatoire werking van dergelijke systemen?
Ja, hier houdt het overheidsbrede standpunt rekening mee. Eén van de voorwaarden die
ik stel in het standpunt, is dat overheidsorganisaties een risicoanalyse uitvoeren
voor de inzet van een generatieve AI-toepassing. Onderdeel van een risicoanalyse is
het onderzoeken of er bias in het AI-systeem zit en welke risico’s dit met zich meebrengt.
Daarnaast biedt de bijbehorende handreiking over generatieve AI ook informatie over
(het voorkomen van) bias.
Vraag 18: Komt er een klachtmechanisme voor burgers die denken dat zij benadeeld zijn
door een AI-gestuurde beslissing?
Conform de Europese AI-verordening moeten getroffen personen, bijvoorbeeld burgers,
het recht hebben om uitleg te krijgen indien een besluit voornamelijk is gebaseerd
op de output van bepaalde hoog-risico AI-systemen. Die uitleg moet duidelijk en zinvol
zijn en moet de grondslag zijn waarop de getroffen personen zich kunnen baseren om
hun rechten uit te oefenen.
Daarnaast kent de Algemene wet bestuursrecht in hoofdstuk 9 een regime voor het indienen
van een bezwaarschrift en voor klachtbehandeling. Bezwaren en klachten over besluiten
en gedragingen van een overheidsorganisatie waarbij AI een rol speelt, kunnen in beginsel
volgens dit regime worden ingediend en behandeld. Daarnaast wil ik hier wijzen op
de analyse van de inbreng op de internetconsultatie die onder vraag 4 is benoemd.
Vraag 19: Hoe wordt de betrokkenheid van de Tweede Kamer, Provinciale Staten, gemeenteraden
en waterschappen geborgd in deze visie? Hoe zorgt u ervoor dat de relevante vertegenwoordigers
mee kunnen besluiten over het gebruik van generatieve AI?
Het overheidsbrede standpunt is via interbestuurlijke samenwerking tot stand gekomen,
vanuit de één-overheidsgedachte. Naast departementen en uitvoerders is er nauw samengewerkt
met de koepelorganisaties VNG, IPO en UvW. Een essentieel uitgangspunt hierbij was
dat het standpunt voor alle bestuurslagen werkbaar moet zijn. Uiteraard kunnen individuele
(gemeente)raden of andere volksvertegenwoordigende instanties, binnen de kaders van
dit standpunt, eigen afwegingen en keuzes maken. Denk bijvoorbeeld aan de vraag voor
welke soort doelen of uitdagingen generatieve AI kan worden ingezet door de desbetreffende
organisatie.
Via het overheidsbrede standpunt worden alle bestuurslagen opgeroepen om het gesprek
aan te gaan met hun volksvertegenwoordigers en hen actief te betrekken bij besluitvorming
over generatieve AI-inzet, zodat zij hun controlerende en kaderstellende rol goed
kunnen vervullen. In de handreiking generatieve AI spoor ik organisaties bovendien
aan om een zo divers mogelijke groep experts te betrekken bij besluitvorming over
generatieve AI-inzet. Volksvertegenwoordigers kunnen hier onderdeel van uitmaken.
Vraag 20: Welke onafhankelijke toezichthouders zijn betrokken bij het beoordelen van
AI toepassingen binnen de overheid? Welke mogelijkheden hebben zij om gebruik stil
te leggen als het niet in lijn is met de wet of met de visie?
Zoals ook toegelicht in de Kamerbrief «Toezicht in het digitale domein»12, houden digitalisering en AI zich niet aan de grenzen van domeinen en sectoren. Dat
betekent in de praktijk dat toezichtsvraagstukken steeds vaker bij verschillende toezichthouders
terecht komen. Zo kan bijvoorbeeld een algoritme in de zorg waarin persoonsgegevens
worden verwerkt het terrein zijn van zowel de Autoriteit Persoonsgegevens (AP) als
de Inspectie Gezondheidszorg en Jeugd (IGJ). Toezichthouders kunnen onderling, bijvoorbeeld
via een samenwerkingsconvenant, bepalen hoe er in een specifieke casus toezicht wordt
gehouden en/of gehandhaafd. Daarbij vraagt het domeinoverstijgende karakter van AI
om coördinatie en uitwisseling tussen (veel verschillende) toezichthouders, juist
ook om de consistentie in het toezicht te bewaken en het stapelen van regels te voorkomen.
In Nederland zijn er verschillende toezichthouders die coördinerende taken op zich
nemen. Zo hebben bijvoorbeeld de Directie Coördinatie Algoritmes (DCA) bij de AP en
de Rijksinspectie Digitale Infrastructuur (RDI) verschillende soorten coördinerende
taken op AI en algoritmegebied. De DCA zet zich bijvoorbeeld in voor domeinoverstijgende
risico-signalering op algoritmegebied en het komen tot concrete guidance voor ondertoezichtgestelden,
zodat het vooraf helder is hoe en aan welke kaders zij moeten voldoen bij de inzet
van AI en algoritmes.
De AI-verordening biedt afdwingbare eisen voor transparante en veilige AI-modellen
voor algemene doeleinden, met of zonder systeemrisico’s. Generatieve AI valt hier
ook onder. Ontwikkelaars van AI-modellen voor algemene doeleinden zijn verplicht om
technische documentatie over het model op te stellen en beschikbaar te houden voor
toezichthouders en om informatie op te stellen voor ontwikkelaars die het AI-model
in hun eigen AI-systeem willen integreren. Als een AI-model voor algemene doeleinden
ook voor systeemrisico’s kan zorgen, moet de aanbieder ook een modelevaluatie uitvoeren,
systeemrisico’s beperken, informatie over incidenten zo snel mogelijk met de toezichthouder
delen en voor een passend niveau van cyberveiligheid zorgen. Deze vereisten uit de
AI-verordening kunnen worden afgedwongen door het Europese AI-bureau («AI Office»),
die toezicht zal houden op de eisen aan AI-modellen voor algemene doeleinden. Zij
kunnen in sommige gevallen er ook voor kiezen om een AI-model voor algemene doeleinden
van de markt te halen.
Momenteel bereidt het kabinet de inrichting van dit toezicht voor. Hierover zal uw
Kamer in het najaar van 2025 nader worden geïnformeerd.
Vraag 21: Welke gevolgen heeft het breder gebruiken van generatieve AI in de overheid
op het vertrouwen dat mensen hebben in het openbare bestuur, omdat zij aannemen dat
ze communiceren met mensen en niet met AI-gegenereerde teksten?
Zoals ook beantwoord bij vraag 7 tot en met 11, hecht ik veel waarde aan een responsieve
en mensvriendelijke overheid waarin burgers zelf een keuze kunnen maken via welk kanaal
zij met de overheid willen communiceren. Daarbij moet overheidscommunicatie altijd
betrouwbaar en transparant zijn.
De AI-verordening introduceert vanaf augustus 2026 ook transparantieverplichtingen
voor bepaalde AI-systemen, waaronder voor generatieve AI-systemen13. Zo moet de gegenereerde content duidelijk gemarkeerd worden als kunstmatig gegenereerde
of gemanipuleerde content. Deze verplichting heeft ook gevolgen voor overheidsorganisaties
die AI-systemen gebruiken voor communicatie. Zelfs als de organisatie geen aanbieder
is maar wel gebruik maakt van een dergelijk systeem, moet zij duidelijk maken dat
de inhoud gegenereerd of gemanipuleerd is. Dit kan bijvoorbeeld door in de bijschriften
van afbeeldingen aan te geven dat ze door AI zijn gemaakt. Ook voor AI-systemen die
met burgers communiceren, zoals chatbots, gelden transparantieverplichtingen. Gebruikers
moeten weten dat ze met een AI-systeem praten en niet met een mens. Dit is vooral
relevant voor online diensten van overheidsorganisaties.
Vraag 22: Blijft generatieve AI altijd een hulpmiddel voor medewerkers en zullen mensen
altijd verantwoordelijk blijven voor de communicatie, het beleid en de beslissingen
die burgers aangaan?
Ik vind het belangrijk dat medewerkers de output van generatieve AI controleren, voordat
zij deze gebruiken in communicatie, beleid of beslissingen. In de overheidsbrede handreiking
generatieve AI staan aanbevelingen voor eindgebruikers, waaronder dat je de uitkomsten
van generatieve AI kritisch beoordeelt, bijvoorbeeld op mogelijke vooroordelen of
hallucineren. Voor zover het gaat om de verantwoordelijkheid voor het resultaat: generatieve
AI is een hulpmiddel en kan geen verantwoordelijkheden dragen.
Vraag 23: Wat doet uw visie om situaties zoals in Amsterdam, met de «Slimme Check»,
te voorkomen?
Alhoewel die specifieke technologische toepassingen geen generatieve AI betreft en
buiten de scope van dit standpunt valt, liggen dit soort risico’s ook op de loer bij
het gebruik van generatieve AI. Via het standpunt worden alle overheidslagen aangespoord
om bij het inzetten van generatieve AI actief te toetsen op mogelijke vooroordelen
in (trainings-)data of uitkomsten, en om transparante processen en menselijk toezicht in te
richten. Zo wordt gewerkt aan eerlijke, controleerbare en inclusieve inzet van AI.
Vraag 24: Op welke wijze wordt binnen alle overheidsorganisaties geborgd dat de handreiking
daadwerkelijk wordt toegepast?
De handreiking is ondersteunend en tot stand gekomen via interbestuurlijke samenwerking.
Alle overheidslagen hebben hun commitment hiertoe uitgesproken. Het is nu aan de individuele
organisaties van alle overheidslagen om de handreiking ook intern te delen en de inhoud
daarvan uit te dragen. We bouwen binnen de overheid aan een steeds groter netwerk
van AI-experts. Het delen van kennis en producten, waaronder de handreiking, gebeurt
ook via deze weg.
Voor toezicht op de verantwoorde inzet van AI-systemen verwijs ik u naar mijn antwoord
op vraag 20.
Vraag 25: Wordt er voorzien in gestructureerde (bij- en na)scholing voor compliance
officers, juristen en ontwikkelaars met betrekking tot generatieve AI?
De AI-verordening verplicht vanaf februari jl. organisaties die AI inzetten om werk
te maken van AI-geletterdheid. Organisaties zijn daarbij verantwoordelijk om het juiste
kennisniveau bij medewerkers te realiseren, afhankelijk van de AI-toepassing die zij
in gebruik hebben. Het benodigde kennisniveau is daarbij mede-afhankelijk van de specifieke
rol die een werknemer heeft binnen de organisatie. Bijvoorbeeld compliance officers,
juristen, data scientists of inkopers hebben daarbij een rol waar een bepaald kennisniveau
voor geacht wordt op het moment dat de organisatie bijvoorbeeld generatieve AI toepassingen
inzet. De desbetreffende (overheids)organisatie is ook verantwoordelijk voor de opleidingen
die haar personeel volgt.
Het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties werkt daarnaast aan hulpmiddelen
en kennisuitwisseling voor de hele overheid om AI-geletterdheid in eigen organisatie
te bewerkstellingen. Voorbeelden van hulpmiddelen zijn een taxonomie van vereiste
niveaus van AI-geletterdheid op basis van de rol van de ambtenaar, een AI-geletterdheids-assessment (met aan te raden vrij beschikbaar lesmateriaal), en templates voor
gebruikersinstructies. Door deze aanpak wordt geborgd dat overheidsorganisaties haar
ambtenaren voldoende kunnen toerusten om generatieve AI op een verantwoorde en zorgvuldige
wijze in te zetten in hun werkzaamheden. Deze hulpmiddelen worden de komende maanden
voor overheidspartijen via het Algoritmekader beschikbaar gesteld.
Bovendien bieden verschillende zogenoemde «communities of practices» voor de genoemde
doelgroepen een plek om specifieke kennis op het vlak van generatieve AI op te doen.
Een voorbeeld hiervan is het Centrum Informatiebeveiliging en privacybescherming (CIP),
die kennisproducten aanbiedt aan privacy en security specialisten binnen de overheid
mede op het vlak van AI en de desbetreffende wet- en regelgeving14. Ook biedt de Academie voor overheidsjuristen en Academie voor wetgeving een aantal
cursussen voor juristen over bijvoorbeeld AI, de AI-verordening en de Impact Assessment
Mensenrechten en Algoritmes15.
Tevens vindt het Ministerie van BZK het belangrijk dat ambtenaren goed onderlegd zijn
met kennis over generatieve AI. Daarom wordt er geïnvesteerd in kennis en kunde over
digitalisering van ambtenaren. Hieronder vallen ook AI-vaardigheden. Om de digitale
kennis te verbeteren is de Rijksacademie voor Digitalisering en Informatisering Overheid
(RADIO) opgericht. Zij bieden bijvoorbeeld een basiscursus aan over de kansen en risico’s
van generatieve AI voor overheidsambtenaren. Daarnaast zet ik een traject op om inkopers
van AI bij de hele overheid te ondersteunen, onder andere zodat zij zijn voorzien
van de juiste kennis om verantwoorde generatieve AI in te kopen.
Vraag 26: Hoe moeten de verschillende expertises die betrokken worden bij het bouwen
en aanschaffen van generatieve AI worden geworven (rekening houdend met de arbeidstekorten
in deze sector)? Kan het kabinet daar ook over adviseren?
Afhankelijk van de aard en complexiteit van de AI-toepassing kunnen de benodigde expertises
tijdens het inkoop of ontwikkelproces verschillen. Om overheden hierbij te ondersteunen
heeft het Ministerie van BZK gevraagd aan het Centrum Informatiebeveiliging en privacybescherming
(CIP), om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk
hierbij aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers
en inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het
inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde
generatieve AI.
Vraag 27: Wat zou de meerwaarde van een ethische commissie zijn voor een organisatie
en waarom is er gekozen om als advies te geven een ethische commissie te overwegen
in plaats van dit aan te bevelen?
De meerwaarde van een ethische commissie is dat de inzet en implicaties van nieuwe
technologie, zoals AI, vanuit verschillende waarden en belangen worden gewogen. Een
diverse samenstelling vergroot de kans dat waarden en belangen niet over het hoofd
worden gezien.
Een ethische commissie wordt overwogen en niet aanbevolen. In de eerste plaats komt
dit, omdat er meerdere manieren zijn om aandacht voor ethiek te borgen. Dat kan bijvoorbeeld
ook door haalbaarheids- en/of evaluatieonderzoek (denk hierbij aan audits of mensenrechtentoetsen
zoals de Impact Assessment Mensenrechten en Algoritmes (IAMA)), waar stil gestaan
kan worden bij de ethische uitkomsten van generatieve AI. Een andere manier is door
te zorgen voor multidisciplinair samengestelde teams of het organiseren van bijeenkomsten
(seminars, hackathons, e.d.) waar ethiek wordt belicht. Een deel van dit soort geadviseerde
maatregelen staat ook in het Algoritmekader.
In de tweede plaats zijn er nog verschillende varianten op een ethische commissie
mogelijk en is er nog geen eenduidige aanpak. Een dergelijke commissie kan bijvoorbeeld
zowel intern als extern belegd worden. Ook de vraag op welk abstractieniveau de ethische
vragen zich richten kan veel uitmaken voor de samenstelling van een ethische commissie.
Richt een advies zich meer op een specifieke toepassing van AI, waar belanghebbenden
direct geraakt worden, of richt de commissie zich op de fundamentelere vragen zoals
wie of wat nu bepaalt of en hoe AI wordt ingezet? Dan is het van belang om vertegenwoordigers
van het maatschappelijke middenveld te betrekken. Om die reden wordt deze keuze in
het standpunt generatieve AI aan organisaties zelf gelaten.
Vraag 28: Hoe worden organisaties beoordeeld op de aanbevelingen die worden gedaan
in de handreiking? Hoe wordt er geëvalueerd hoe deze handreiking overheidsbreed wordt
opgepakt en toegepast?
Zie de beantwoording bij vragen 20 en 24.
Vraag 29: Waarom wordt er in de handreiking aangegeven dat er bij voorkeur in het
algoritmeregister geregistreerd moet worden en niet standaard?
Met overheidsorganisaties is afgesproken dat zij ieder geval hoog-risico AI-systemen
(categorie A in de handreiking Algoritmeregister16) en impactvolle algoritmen (categorie B) in het Algoritmeregister registreren. Generatieve
AI-toepassingen zijn niet automatisch hoog-risico of impactvol. Als de toepassing
niet in deze categorieën valt, staat het organisaties vrij om deze alsnog te registreren.
Dit raad ik ook aan, omdat het de transparantie en mogelijke democratische controle
verhoogt. Als de generatieve AI-toepassing wel in categorie A of B valt, wordt deze
meegenomen in bestaande afspraken17 door departementen om deze te publiceren in het Algoritmeregister.
Vraag 30: Hoe wordt het Algoritmekader in overheidsorganisaties gestandaardiseerd?
Het Algoritmekader is een centraal hulpmiddel waar alle overheidsorganisaties gebruik
van kunnen maken. Het is tot stand gekomen met medewerking van een brede vertegenwoordiging
van overheidsorganisaties en wetenschap. Het Algoritmekader is zo opgesteld dat het
toepasbaar is voor zowel de Rijksoverheid als bijvoorbeeld gemeenten, provincies en
waterschappen, zodat de gehele overheid hetzelfde uitgangspunt heeft. Het geeft organisaties
een overzicht van geldende regelgeving, en biedt handvatten voor het toepassen van
die regelgeving. Het centraal delen van instrumenten en maatregelen helpt toepassing
van de regelgeving te standaardiseren. Door de bekendheid van het Algoritmekader te
vergroten neemt het effect van deze werkwijze toe.
Zodra de Europese standaarden op dit terrein formeel zijn vastgesteld, zal het Algoritmekader
daarop worden bijgewerkt om verdere standaardisatie tot stand te brengen.
Vraag 31: In welke mate is het Algoritmekader sluitend genoeg dat het goede handvatten
geeft en open genoeg dat overheidsorganisaties er maatwerk op kunnen toepassen?
Het Algoritmekader is gebaseerd op de vereisten die vanuit wetgeving worden gesteld,
zoals met name de Europese AI-verordening maar ook bijvoorbeeld de Awb en de AVG.
Al deze eisen worden behandeld in dit kader.
Op deze manier geef ik een zo sluitend mogelijk overzicht van alle zaken waar overheden
aan moeten voldoen, naast enkele zaken die niet strikt wettelijk verplicht zijn maar
wel van groot belang kunnen zijn bij de verantwoorde inzet.
Het Algoritmekader verwijst teven door naar elders ontwikkelde hulpmiddelen, handreikingen
en best practices. Organisaties krijgen hiermee de ruimte om zelf een inschatting
te maken over welke hulpmiddelen het beste aansluiten of meest relevant zijn voor
hun domein en het in te zetten algoritme.
Vraag 32: Hoe wordt er op toegezien dat met alle kaders en impact-assessments daadwerkelijk
uitgesloten wordt dat grondrechten geschonden worden?
Bij vraag 20 is ingegaan op het toezicht op het gebruik van AI. De markttoezichtautoriteiten
zullen toezien op de eisen uit de AI-verordening, waaronder op de eisen ter bescherming
van grondrechten. Daarnaast zien de Autoriteit Persoonsgegevens (AP) en het College
voor de Rechten van de Mens (CRM) erop toe dat het handelen van publieke en private
organisaties niet in strijd is met de Algemene Verordening Gegevensbescherming en
non-discriminatiewetgeving. De AP, het CRM en de procureur-generaal bij de Hoge Raad
(PGHR), de voorzitter van de Afdeling Bestuursrechtspraak Raad van State (ABRvS),
het gerechtsbestuur van de Centrale Raad van Beroep (CRvB) en het gerechtsbestuur
van het College van Beroep voor het bedrijfsleven (CBb) zijn voor de AI-verordening
vastgesteld als autoriteiten voor de bescherming van grondrechten.
Vraag 33: Hoe wordt er toegezien op de aanbevelingen over de risicoanalyses en of
deze ook daadwerkelijk worden uitgevoerd?
Zie de beantwoording bij vraag 20.
Vraag 34: Wat wordt er bedoeld met «verken mogelijkheden van Europese of Nederlandse
AI gebruik te maken»? Hoe ziet dit er volgens het kabinet uit?
In de veranderende geopolitieke context neemt het belang van (open strategische) autonomie
steeds verder toe. Ook zien we dat digitale technologie steeds centraler komt te staan
in de geopolitieke machtsstrijd, met daarin AI als focuspunt. Dit, vanwege de enorme
economische, maatschappelijke en veiligheidsbelangen die gemoeid zijn met AI. Mondiaal
wordt daarom op grote schaal geïnvesteerd in AI, aangevoerd door de VS en China. Tegelijkertijd
blijven investeringen in Nederland en de EU achter. Nederland raakt steeds verder
achterop in de ontwikkeling van de meest krachtige AI en haar ondersteunende infrastructuur
en technologieën. Dit kan de Nederlandse autonomie met betrekking tot AI verder onder
druk zetten.
Doordat AI een steeds grotere rol gaat spelen in onze samenleving en economie, vind
ik het belangrijk om als Nederland en samen met de EU stevig in te zetten op veilige
en betrouwbare AI-ontwikkeling. Bij de afwegingen die overheidsorganisaties maken
tussen de inzet van bepaalde generatieve AI-toepassingen, moet digitale autonomie
van Nederland en Europa meegenomen worden. Ik vraag organisaties daarom om de mogelijkheden
van lokale of Europese dienstverleners van generatieve AI te verkennen. Hiermee wordt
ook vendor lock-in voorkomen. Daarnaast voldoen deze AI-leveranciers vaak eerder aan
onze (Europese) veiligheidsstandaarden dan niet-Europese dienstverleners en besteden
Europese initiatieven vaak meer aandacht aan de correcte verwerking van Europese talen.
Tegelijk is het niet werkbaar om overheidsorganisaties te vragen enkel gebruik te
maken van Europese of Nederlandse AI-toepassingen. Nederland en de EU lopen momenteel
nog achter in de ontwikkeling van AI-toepassingen.
Om een breder aanbod te stimuleren onderneemt het Kabinet verschillende acties om
de Nederlandse en Europese AI-ecosystemen te versterken. Dit doen we ondermeer door
innovatie te stimuleren (bijvoorbeeld via het meerjarig AiNed Groeifondsprogramma),
publiek-privaat samen te werken (bijvoorbeeld in AI Coalitie voor Nederland) en de
beschikbaarheid van AI-talent te vergroten (bijvoorbeeld met het Actieplan Groene
en Digitale Banen). Ik zet me momenteel ook in op de realisatie van een AI-faciliteit
in Nederland om betrouwbare en geavanceerde AI te kunnen ontwikkelen en benutten.
Zie hiervoor ook de beantwoording bij vraag 60.
Vraag 35: Hoe wordt in de praktijk gecontroleerd of AI-toepassingen echt voldoen aan
de bestaande wet- en regelgeving?
Zie de beantwoording bij vraag 20.
Vraag 36: Waarom is ervoor gekozen om in het nieuwe standpunt minder nadruk te leggen
op risicoanalyses?
In het overheidsbrede standpunt ligt niet minder nadruk op het uitvoeren van risicoanalyses,
maar is wel meer flexibiliteit geboden op dit terrein.
In het voorlopige standpunt uit 2023 werd veel aandacht geschonken aan de risico’s
van generatieve AI. In dit herijkte standpunt wordt een balans gezocht met de kansen
die de technologie biedt, maar neemt de risico’s niet weg. Het standpunt vraagt organisaties
daarom nog steeds om risicoanalyses uit te voeren. Echter, er wordt niet meer voorgeschreven
welk instrument organisaties hiervoor moeten gebruiken. In praktijk betekend dit dat
organisaties nu naast de Data Protection Impact Assessment (DPIA) of de IAMA, ook
andere impacttoetsen kunnen kiezen als deze beter aansluiten bij de generatieve AI-toepassing
die zij willen ontwikkelen of inzetten. Als er vanuit de AVG een verplichting is om
een (pre-scan) DPIA uit te voeren omdat er persoonsgegevens verwerkt worden, dan geldt
die verplichting bovendien nog steeds.
Vraag 37: Welke onderdelen van het voorlopige AI-standpunt uit 2023 werden precies
als te streng ervaren door overheidsorganisaties?
In het voorlopige standpunt uit 2023 werd veel aandacht geschonken aan de risico’s
van generatieve AI. Het standpunt werd daarom vaak opgevat als een algeheel verbod
op de inzet van generatieve AI door de Rijksoverheid. Daarnaast lag er een nadruk
op het doen van een DPIA en IAMA in het bijzonder. Deze werden door organisaties ervaren
als erg zware impacttoetsen, vooral bij toepassingen met relatief lage impact. Organisaties
ervaarden dit als een rem wanneer zij onderzochten of zij een generatieve AI-toepassing
wilden inzetten.
Vraag 38: Welke overheden en departementen zijn allemaal betrokken geweest bij het
uitwerken van dit standpunt?
Het standpunt en de handreiking zijn langs verschillende interdepartementale en interbestuurlijke
gremia geweest voor feedback en afstemming. Alle departementen en koepelorganisaties
IPO, VNG en UvW zijn op die manier betrokken geweest bij de totstandkoming van de
stukken. Dit standpunt vormt daarom ook een goed voorbeeld voor overheidsbrede samenwerking
in het kader van AI.
Vraag 39: Wanneer wordt generatieve AI volgens u «optimaal benut»?
De optimale inzet van generatieve AI wordt bereikt wanneer deze technologie gericht
bijdraagt aan het oplossen van maatschappelijke opgaven. Zoals ook aangegeven in het
overheidsbrede standpunt generatieve AI en de bijbehorende handreiking, kan dit bijvoorbeeld
door het verbeteren van de overheidsdienstverlening of het verlagen van werkdruk.
In de handreiking worden ook voorbeelden gegeven van denkbare generatieve AI-toepassingen
binnen de overheid met relatief lage impact.
Een voorwaarde voor effectieve en optimale inzet is dat vooraf een duidelijk en concreet
doel wordt geformuleerd, passend binnen de juridische en organisatorische kaders.
Daarnaast is het cruciaal dat de randvoorwaarden op orde zijn. Denk hierbij bijvoorbeeld
aan voldoende AI-geletterdheid onder personeel, ethisch verantwoorde en mensgerichte
inzet van (generatieve) AI, heldere governance en een robuuste informatiehuishouding.
Als aan deze voorwaarden is voldaan, kan generatieve AI in de praktijk naar mijn mening
als optimaal worden beschouwd.
Vraag 40: Is het beschikken over een risicoanalyse en waar relevant een Data Protection
Impact Assessment (DPIA) een randvoorwaarde voor het in gebruik nemen van een AI-toepassing
binnen de overheid?
Conform het overheidsbrede standpunt is het uitvoeren van een risicoanalyse een randvoorwaarde
voor de inzet van generatieve AI. In tegenstelling tot het voorlopige standpunt uit
2023, schrijft het huidige standpunt niet meer voor welk instrument gebruikt moet
worden voor de analyse. Zie ook de beantwoording bij vragen 36 en 37.
Vraag 41: Als er AI-toepassingen worden afgenomen zonder te beschikken over een risicoanalyse,
wordt deze dan buiten werking genomen? Hoe ziet u hierop toe?
Zie de beantwoording bij vraag 20.
Vraag 42: Welke partijen bedoelt u als u zegt dat risicoanalyses met input van een
«zo divers mogelijke groep experts binnen of buiten de organisatie» moet worden opgesteld?
Ik vind het belangrijk dat partijen op wie de risicoanalyses betrekking hebben, betrokken
worden bij de uitvoering daarvan. Op die manier worden de inzet en implicaties van
een generatief AI-systeem vanuit verschillende waarden en belangen gewogen. Hierbij
kan worden gedacht aan het betrekken van een data-engineer, data scientist, IT-architect,
ethicus, data- en privacy-officer. Daarnaast gaat het niet alleen om experts binnen
overheidsorganisaties, maar ook (vertegenwoordigers van) burgers, NGO’s, bedrijven,
juristen en wetenschap. Een diverse samenstelling van experts vergroot de kans dat
waarden en belangen niet over het hoofd worden gezien.
Zie ook mijn beantwoording op vraag 26 en 27.
Vraag 43: Wie bepaalt welke methode geschikt is voor de verplichte risicoanalyse bij
het inzetten van generatieve AI?
In het standpunt schrijf ik niet meer voor welk instrument overheidsorganisaties moeten
gebruiken voor de risicoanalyse. In de praktijk betekent dit dat organisaties nu naast
de DPIA of IAMA, ook andere impacttoetsen kunnen kiezen als deze beter aansluiten
bij de generatieve AI-toepassing die zij willen ontwikkelen of inzetten. Zie ook de
beantwoording bij vraag 36.
Vraag 44: Hoe wordt gehandhaafd dat ambtenaren geen AI-toepassingen gebruiken die
onder consumentenvoorwaarden vallen?
Met dit standpunt wil ik overheden ondersteunen bij het inkopen of bouwen van een
veilig alternatief voor generatieve AI onder consumentenvoorwaarden. Door het aanbieden
van een alternatief zullen ambtenaren minder snel gebruik maken van gratis online
versies. Organisaties kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde
websites dicht te zetten. Hier zijn zij zelf verantwoordelijk voor. We zien bijvoorbeeld
dat het Chinese DeepSeek vaak niet bereikbaar is op overheidsapparatuur, vanwege het
verbod op deze AI-toepassing.18
Vraag 45: Is er al een concreet plan voor het lokaal draaien van AI-modellen op overheidssystemen?
Dit voorjaar nam uw Kamer de motie van het lid Six Dijkstra19 aan. Deze motie verzoekt het kabinet om te onderzoeken welke mogelijkheden er nu
en in de toekomst zijn om overheidsbeleid zo in te richten dat AI-modellen in principe
lokaal (moeten) draaien op overheidssystemen. De motie vraagt daarnaast om samen met
medeoverheden te verkennen hoe het lokaal draaien van AI de norm kan worden. Over
de voortgang van deze motie zal uw Kamer dit najaar nader worden geïnformeerd.
Vraag 46: Dienen bij het inkopen van generatieve AI-modellen en/of -applicaties ook
afspraken gemaakt te worden over het vermijden van strategische afhankelijkheden van
één of enkele (niet-Europese) partijen?
Zie de beantwoording bij vraag 34.
Vraag 47: Hoe voorkomt u dat overheden strategisch afhankelijk worden van één of enkele
AI-leveranciers?
Zie de beantwoording bij vraag 34.
Vraag 48: Welke eisen stelt u aan de manier waarop AI-modellen getraind zijn?
Via het overheidsbrede standpunt benadruk ik dat overheidsorganisaties zich bij de
inzet van generatieve AI dienen te houden aan wetgeving, zoals de Europese AI-verordening.
De AI-verordening stelt eisen aan de manier waarop AI-modellen getraind zijn. Aanbieders
van «AI-modellen voor algemene doeleinden», waar generatieve AI-modellen onder vallen,
zijn verplicht om informatie over de werking van het model te delen met ontwikkelaars
die op dit model voortbouwen. Ook moet duidelijk worden hoe het auteursrecht wordt
gerespecteerd en moet bij alle door AI gegenereerde content duidelijk worden gemaakt
dat dit het geval is. Deze eisen dragen er aan bij dat beter inzichtelijk wordt welke
content tot stand is komen met AI en mogelijk onzeker, fout of niet-geverifieerd is20.
Er gelden aanvullende eisen als het AI-model voor algemene doeleinden volgens de AI-verordening
systeemrisico’s met zich meebrengt. De bedoeling is dat de AI-verordening hiermee
de krachtigste AI-modellen op de Europese markt reguleert.
Vraag 49: Mogen overheidsinstanties gebruikmaken van generatieve AI-modellen die getraind
zijn op een manier dat het auteursrecht van makers is geschonden?
Ik volg het advies van de landsadvocaat Pels Rijcken uit oktober 2023, dat stelt dat
het gebruik van generatieve AI door medewerkers van de Staat niet per definitie onrechtmatig
is vanuit het oogpunt van auteursrecht. Prudentie is geboden, wanneer de ontwikkelaars
auteursrechtelijk beschermd materiaal ten aanzien waarvan rechthebbenden een voorbehoud
hebben gemaakt en/of auteursrechtelijk beschermd materiaal uit illegale bron hebben
gebruikt voor de totstandkoming van het AI-model.
Sinds de inwerkingtreding van de AI-verordening zijn aanbieders van generatieve AI
verplicht om intern beleid op te stellen voor de naleving van auteursrechten en een
voldoende gedetailleerde samenvatting van de gebruikte trainingscontent openbaar te
maken. Dat helpt rechthebbenden beter te controleren of de voornoemde voorwaarden
(dat rechthebbenden geen voorbehoud hebben gemaakt dat hun werken niet mogen worden
gebruikt om generatieve AI te trainen en dat het auteursrechtelijk beschermd materiaal
dat voor trainingsdoeleinden wordt gebruikt uit legale bron afkomstig is) worden nageleefd.
Daarom raad ik organisaties aan om, wanneer zij generatieve AI-systemen inkopen, in
de (concept)overeenkomst op te nemen dat de aanbieder aangeeft dat zij auteursrechten
niet schenden met de trainingsdata, en dat de aanbieder dit gedurende de ontwikkeling
en levensduur actief bewaakt. Wanneer overheidsorganisaties zelf AI-modellen ontwikkelen,
zijn zij uiteraard zelf verantwoordelijk voor het correct omgaan met de auteursrechten
van eigen data.
Zie ook de beantwoording bij vraag 26.
Vraag 50: Stelt u als eis aan AI-modellen die de overheid afneemt dat makers altijd
eerlijk gecompenseerd zijn als modellen getraind zijn op hun werk?
Nee, deze eis stel ik niet in het overheidsbrede standpunt. Het trainen van generatieve
AI is een vorm van tekst- en datamining. Geheel in lijn met artikel 4 van de EU-Richtlijn
2019/790 «Auteursrechten en naburige rechten in de digitale eengemaakte markt» bepaalt
de Auteurswet dat het maken van een kopie van een werk ten behoeve van tekst- en datamining
is toegestaan onder twee voorwaarden. Ten eerste moeten de werken waarmee generatieve
AI wordt getraind uit legale bron afkomstig zijn. Ten tweede moeten de rechthebbenden
geen voorbehoud hebben gemaakt dat het trainen van generatieve AI in de weg staat.
Als er een voorbehoud is gemaakt, dan is voor het gebruik van het auteursrechtelijk
beschermde materiaal toestemming vereist. Daaraan kunnen rechthebbenden voorwaarden
verbinden zoals het betalen van een vergoeding. Het betalen van een vergoeding is
niet zonder meer verplicht op grond van het geldende juridische kader. Het ligt dan
ook niet voor de hand dat ik deze eis stel aan overheidsorganisaties die generatieve
AI-toepassingen willen afnemen.
Vraag 51: Hoe breed is de inzet van generatieve AI binnen overheidsorganisaties nu?
Zie de beantwoording bij vragen 3 en 83.
Vraag 52: In welke afdelingen en binnen welke organisaties wordt generatieve AI nu
het meest gebruikt? Kunt u dit uitdrukken in harde cijfers?
Ik kan dit niet in cijfers uitdrukken. Generatieve AI kan voor veel verschillende
taken worden ingezet. Zie de beantwoording bij vraag 3 en 83 voor concretere voorbeelden
binnen de overheid.
Vraag 53: Hoe dienen medewerkers geïnformeerd te worden over het effectieve en verantwoorde
gebruik van deze technologie? Wanneer is daar volgens u sprake van?
Zie de beantwoording bij vraag 25.
Vraag 54: Hoe voorkomt u dat medewerkers gebruik maken van reguliere toepassingen,
zoals ChatGPT?
Zie de beantwoording bij vraag 44.
Vraag 55: Hoe groot is nu het gebruik van AI-toepassingen onder reguliere consumentenvoorwaarden
binnen de overheid?
Het gebruik van generatieve AI-toepassingen onder consumentenvoorwaarden was onder
het vorige kabinetsstandpunt ook niet toegestaan voor de Rijksoverheid. Hoe groot
het aandeel van individuele ambtenaren is die hier toch gebruik van maakten en bij
welke processen, is lastig te achterhalen. Wel werk ik aan het vergroten van de AI-geletterdheid
van ambtenaren, om bewustwording rondom zogenaamde «shadow AI» te vergroten. Zie hiervoor
ook de beantwoording bij vraag 25.
Vraag 56: Waarom wordt het gebruik van Europese AI-toepassingen alleen «aanbevolen»
en niet afgedwongen?
Zie de beantwoording bij vraag 34.
Vraag 57: Hoe zorgt u ervoor dat overheden niet alsnog massaal gebruik maken van Amerikaanse
of Chinese AI-toepassingen, die de strategische afhankelijkheid van niet-Europese
bedrijven alleen maar doen toenemen?
Als het gaat om AI-tools (apps) uit landen met een offensief cyberprogramma jegens
Nederland, dan zijn deze op basis van het Rijksbrede app-beleid verboden. DeepSeek
is dan ook niet toegankelijk vanaf werkdevices van de Rijksoverheid. Organisaties
kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde websites, zoals gratis
toegankelijke generatieve AI via de browser, dicht te zetten. Hier zijn zij zelf verantwoordelijk
voor.
Aan de andere kant zetten wij actief in op het stimuleren van taalmodellen van Europese
of Nederlandse bodem. Dit is tevens een van de versnellers binnen de Nederlandse Digitaliseringsstrategie
(NDS), onder de prioriteit AI. In 2023 investeerde de Rijksoverheid al in een Nederlands
taalmodel: GPT-NL.
Vraag 58: Hoe ziet u erop toe dat alleen overheidsspecifieke AI-toepassingen binnen
organisaties worden gebruikt? Wat zijn de gevolgen als iemand wél onder reguliere
consumentenvoorwaarden AI-toepassingen gebruikt?
Zie de beantwoording bij vraag 44 en 57.
Vraag 59: Wat doet u om de betrouwbaarheid van Nederlandse taalmodellen in generatieve
AI te doen toenemen?
Via het overheidsbrede standpunt moedig ik overheidsorganisaties aan gebruik te maken
van taalmodellen die in Nederland zijn ontwikkeld. Hiermee wil ik een stimulans geven
aan de verdere doorontwikkeling van deze taalmodellen, waarmee ik beoog dat de betrouwbaarheid
van deze modellen toeneemt.
Zie ook de beantwoording bij vraag 34, 57 en 60.
Vraag 60: Welke rol ziet u uiteindelijk voor AI-toepassingen die in de voorgenomen
Nederlandse AI-faciliteit worden ontwikkeld? Committeert de overheid zich aan het
afnemen van deze toepassingen?
Het consortium dat werkt aan een voorstel voor een AI-faciliteit, ook wel AI-fabriek,
in Groningen is voornemens initiatieven te ondersteunen die verantwoorde en transparante
AI-ontwikkeling bevorderen. Dit omvat het ontwikkelen en testen van AI-modellen, die
voldoen aan bestaande (Europese) wet- en regelgeving. Denk hierbij aan de vereisten
die de AI-verordening stelt.
De AI-faciliteit is voor bedrijven, onderzoekers en overheden die AI-modellen willen
ontwikkelen en testen voor innovatieve toepassingen in de pre-commerciële fase (nog
voordat deze de markt op gaan). Bij de inkoop of het gebruik van AI zal de overheid
zoveel mogelijk voorop stellen dat AI-toepassingen gebaseerd moeten zijn op de AI-modellen
die in de AI-fabriek ontwikkeld en getest zijn.
Vraag 61: Reguleert of normeert u ook het gebruik van AI-modellen op basis van hun
CO2-uitstoot?
Vraag 62: Hoe jaagt u duurzaamheid aan binnen het gebruik van AI-toepassingen, wetende
dat deze een grote uitstoot van CO2 kennen door de benodigde rekenkracht?
Om innovatie te bevorderen en organisaties binnen de gestelde kaders zo veel mogelijk
ruimte te geven om te experimenteren, kies ik ervoor om niet te reguleren of normeren
op basis van de CO2-uitstoot van AI-modellen.
Ik heb de Universiteit Utrecht (UU) de opdracht gegeven om in kaart te brengen wat
de bijdrage van generatieve AI bij de overheid is op het energie- en waterverbruik
en CO2-emissies, en welke prioritaire acties vanuit de overheid nodig zijn om de negatieve
gevolgen te beperken.21
Daarnaast is het onderdeel van Rijksbreed beleid om gebruik te maken van duurzame
datacenters, die duurzame energie gebruiken met een Datacenter Infrastructure Efficiency
(DCiE)-score van minstens 50 procent, gewogen over een heel jaar. Dit beleid is ook
van toepassing bij het gebruik van generatieve AI.
Vraag 63: Volgt u de analyse van de Autoriteit Persoonsgegevens dat reguliere AI toepassingen
onder consumentenvoorwaarden niet acceptabel is voor gebruik door overheden, omdat
er oneigenlijk met data wordt omgegaan?
Ja, zie pagina 3 van het overheidsbreed standpunt.
Vraag 64: Welke gevolgen heeft de overheidsbrede visie op het gebruik van telefoons,
computers en apps waar AI-toepassingen onder consumentenvoorwaarden zonder opt-out
standaard worden ingebouwd? Gaat de voorkeur uit naar het gebruiken van platforms
waar geen AI-toepassingen zijn ingebouwd?
Er worden via software-updates met regelmaat AI-functionaliteiten toegevoegd aan bestaande
systemen of apparaten. Denk inderdaad aan telefoons, computers of online toepassingen
die we bij de overheid gebruiken. Ik vind het belangrijk dat overheidsorganisaties
hier goede afspraken over maken met hun leveranciers, onder meer over data-deling
en opslag.
Wanneer de AI-functionaliteiten enkel onder consumentenvoorwaarden aangeboden kunnen
worden, zou de functie uitgeschakeld moeten worden. De voorkeur gaat niet uit naar
platforms zonder AI, maar wel naar platforms waar AI op een veilige en verantwoorde
manier ingezet kan worden. Als het gaat om AI-tools (apps) uit landen met een offensief
cyberprogramma jegens Nederland, dan zijn deze op basis van het Rijksbrede app-beleid
verboden. DeepSeek is dan ook niet toegankelijk vanaf werkdevices van de Rijksoverheid.
Organisaties kunnen daarnaast aan hun ICT-dienstverleners vragen om bepaalde websites,
zoals gratis toegankelijke generatieve AI via de browser, dicht te zetten. Hier zijn
zij zelf verantwoordelijk voor.
Vraag 65: Welke gevolgen heeft de overheidsbrede visie op het gebruiken van Copilot
binnen Microsoft Teams door overheden? Is dit voortaan niet meer toegestaan?
Het gebruik van een gecontracteerde versie van Microsoft365 Copilot is in principe
in lijn met het overheidsbrede standpunt, met dien verstande dat Microsoft365 Copilot
niet gebruik maakt van opensource- en Europese modellen, terwijl het standpunt daar
wel de voorkeur aan geeft. Belangrijker is echter dat momenteel het advies van Strategisch
Leveranciersmanagement Rijk (SLM Rijk) aan rijksorganisaties is om Microsoft365 Copilot
nog niet in te zetten. Dit naar aanleiding van de door hen uitgevoerde DPIA, waarin
vier hoge risico’s zijn geïdentificeerd. Naar aanleiding van deze hoge risico's heeft
Microsoft aanvullende maatregelen aangeboden. SLM Rijk is hierover actief met Microsoft
in gesprek. SLM Rijk zal deze aanvullende maatregelen vervolgens beoordelen en op
basis van deze beoordeling een geactualiseerde DPIA publiceren en een geactualiseerd
advies uitbrengen.
Vraag 66: Heeft u deze visie afgestemd met de verschillende gemeenten die nu juist
experimenteren met het gebruik van Copilot?
Het overheidsbrede standpunt over generatieve AI is eind 2024 en begin 2025 breed
afgestemd met de koepels van alle medeoverheden, waaronder ook de Vereniging van Nederlandse
Gemeenten (VNG). Binnen de kaders van dit standpunt is ruimte om zelf afwegingen te
maken, bijvoorbeeld ten aanzien van de keuze voor een Europese of niet-Europese leverancier
op basis van een inkooptraject.
Vraag 67: Hoe ziet u erop toe dat de AI-geletterdheid van medewerkers feitelijk toeneemt?
Bent u bereid hierin dwingend op te treden om cursussen en leertrajecten een voorwaarde
te maken voor het mogen gebruiken van AI-toepassingen?
Zie de beantwoording bij vraag 25.
Vraag 68: Hoe bent u bereid inzicht te krijgen in het gebruik van AI door toeleveranciers
waar de overheid mee samenwerkt? Zullen zij een nieuwe mate van transparantie moeten
geven over hun werkprocessen voordat overheden diensten van hen afnemen?
Via het opstellen van specifieke inkoopvoorwaarden wil ik overheidsbreed afspraken
maken over de mate van transparantie. Zodoende heet het Ministerie van BZK aan het
Centrum Informatiebeveiliging en Privacybescherming (CIP) gevraagd om een traject
te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij aan duidelijke
aanvullende inkoopvoorwaarden en bijscholing van inkopers. Hiermee wil ik organisaties
ondersteunen in het doorlopen van het inkoop- of ontwikkelproces, zodat organisaties
sneller aan de slag kunnen met verantwoorde generatieve AI.
Vraag 69: Wanneer is er volgens u sprake van een «gecontroleerde niet-productieomgeving»
en welke data mag hierin wél verwerkt worden?
In het overheidsbrede standpunt wil ik overheidsorganisaties de ruimte bieden om generatieve
AI-toepassingen te verkennen. Dit betreft doorgaans pilots die worden uitgevoerd in
een veilig afgeschermde testomgeving of op stand-alone computers als onderdeel van
een pilot. Denk aan demo-omgevingen, waarin gewerkt wordt met fictieve of openbaar
beschikbare data.
Vraag 70: Bent u van mening dat er één centrale omgeving/«proeftuin» moet zijn waarin
alle overheden veilig kunnen experimenteren met generatieve AI, zodat kennis per definitie
wordt uitgewisseld met alle betrokkenen?
Ik ben van mening dat er een centrale veilige omgeving moet zijn waar we samen met
wetenschappers, ICT-talenten, publieke dienstverleners en private partijen kunnen
experimenteren, doorontwikkelen en werken aan robuuste AI-bouwblokken. Dit is iets
waar ik aan werk met het oprichten van een zogenoemde «doorbraakfaciliteit». Uitwisseling
van innovatieve oplossingen, kennis en of trainen van modellen moet hier centraal
staan.
Het Platform AI & Overheid draagt bij aan het delen van praktijkvoorbeelden en kennis.
Mijn doel is om verantwoord gebruik van AI bij overheidsorganisaties te stimuleren.
Het Platform heeft hiermee een verbindende factor, om zo publiek en privaat samen
te laten komen. Denk aan het uitwisselen van praktijkvoorbeelden, het uitwisselen
van kennis maar ook aan het maken van afspraken om samen te werken bij bijvoorbeeld
het ontwikkelen van een chatbot. Ik hecht waarde aan innoveren en experimenteren net
als implementatie binnen de gestelde kaders. In het najaar ga ik aan de slag met een
aantal AI-toepassingen die impactvol zijn en maak ik gebruik van kennis en kunde vanuit
diverse expertises die de verantwoorde inzet van AI vergemakkelijken.
Zie ook beantwoording onder vraag 13.
Vraag 71: Welke «betere afspraken» beoogt u te maken met leveranciers voor de inkoop
van generatieve AI-toepassingen?
Net als voor privacy en informatiebeveiliging, zullen de vereisten specifiek voor
generatieve AI ook een plek moeten krijgen in het inkoopproces. Denk aan transparantie
en documentatie eisen die de Europese AI-verordening stelt. Ook afspraken over data-deling
en opslag moeten zorgvuldig tot stand komen. Zie voor wat betreft het auteursrecht
het antwoord op vragen 49 en 50.
Ik onderschrijf dat dit nog een vraagstuk is waar veel overheidsorganisaties tegenaanlopen.
Zodoende is aan het Centrum Informatiebeveiliging en Privacybescherming (CIP) gevraagd
om een traject te starten rondom inkopen van AI voor de gehele overheid. Denk hierbij
aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers en
inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het inkoop-
of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde
generatieve AI.
Vraag 72: Hoe voorkomt u dat het inrichten van verschillende proeftuinen voor overheden
niet als gevolg heeft dat kennis niet voortvarend wordt uitgewisseld?
Zie de beantwoording bij vraag 70.
Vraag 73: Vindt u dat AI-toepassingen die door overheden worden gebruikt altijd volledig
uitlegbaar moeten zijn, zodat keuzes door de overheid altijd goed kunnen worden verantwoord?
Ik ben van mening dat dat afhangt van de toepassing en impact van de AI-toepassingen.
Artikel 86 van de AI-verordening geeft een recht op uitleg van besluiten (die rechtsgevolg
of aanzienlijke invloed hebben) die worden genomen op basis van input van een hoog-risico
AI-systeem. Onder meer AI-systemen die door overheden worden gebruikt om essentiële
overheidsuitkeringen en -diensten te verlenen gelden als hoog-risico AI-systeem. Daarnaast
vereist de Algemene wet bestuursrecht bij besluiten een deugdelijke en kenbare motivering.
Vraag 74: Hoe betracht u uitlegbaarheid en verantwoording bij het gebruik van AI toepassingen
die níet open source zijn? Welke mogelijkheden zijn er om gesloten modellen alsnog
transparanter te maken?
Ik vind uitlegbaarheid van generatieve AI-toepassingen belangrijk, of ze nu open source
zijn of niet. Voor wat betreft verantwoording voor de output/het resultaat: generatieve
AI is een hulpmiddel en kan geen verantwoordelijkheden dragen. Zowel uitlegbaarheid
als verantwoording zijn onderdeel van het opzetten van een goede AI-governance. Het
Algoritmekader biedt hier handvatten bij.
Er zijn verschillende manieren waarop (generatieve) AI-modellen transparanter kunnen
worden gemaakt.
Gebruikers kunnen gebaat zijn bij duidelijke en overzichtelijke model cards – bijsluiters met technische details en mogelijke beperkingen van het betreffende
AI-model. Een dergelijke bijsluiter kan (eind)gebruikers helpen te bepalen of een
model geschikt is voor een bepaalde toepassing, en of er mogelijke risico’s verbonden
zijn aan het gebruik ervan.22 Ook de Autoriteit Persoonsgegevens (AP) wijst hierop in haar Rapportage AI- & Algoritmerisico’s
Nederland uit het najaar 2023.23
Daarbij bevat de Europese AI-verordening verplichtingen voor aanbieders van AI-modellen
voor algemene doeleinden, dit zijn modellen die in staat zijn om veel verschillende
taken uit te voeren en in veel verschillende AI-systemen kunnen worden geïntegreerd.
Hieraan wordt gerefereerd als «AI-modellen voor algemene doeleinden». Aanbieders van
deze modellen zijn verplicht om informatie over de werking van het model te delen
met ontwikkelaars die op dit model voortbouwen. Deze verplichtingen gaan in vanaf
2 augustus 2025.
Vraag 75: Waarom kiest u er niet voor om uitsluitend open source-applicaties te gebruiken,
in plaats van dit enkel aan te bevelen?
Zoals ook benoemd in de overheidsbrede visie op generatieve AI,24 kunnen open-source generatieve AI-modellen voordelen bieden op het gebied van transparantie
en uitlegbaarheid. Om die reden moedig ik het gebruik van open source aan, onder andere
door bij aanbestedingen en ontwikkeling het principe «open source, tenzij» te hanteren.
Tegelijkertijd geldt dat dergelijke vormen van transparantie niet ten koste mag gaan
van de veiligheid en betrouwbaarheid van generatieve AI-modellen. In sommige gevallen
kunnen gesloten systemen beter voldoen aan beveiligingseisen of specifieke functionele
vereisten. Daarom is het gebruik van open source geen verplichting, maar een aanbeveling,
afhankelijk van de context en risicoafweging.
Vraag 76: Hoe gaat u het gebruik van open source-applicaties daadwerkelijk doen groeien
als u slechts een aanbeveling voorstelt en geen harde doelstelling?
Ik maak in dit verband onderscheid tussen open source-applicaties en open modellen.
Wat betreft het stimuleren van open generatieve AI-(taal)modellen – bijvoorbeeld modellen
waarvan transparant is op welke data ze zijn getraind of waarvan de modelgewichten
vrij beschikbaar zijn – wordt er in het kader van de Nederlandse Digitaliseringsstrategie
(NDS) werk gemaakt van het aanjagen van de inzet van open taalmodellen door overheidsorganisaties.
Dit is een van de versnellers onder de prioriteit AI.
Vraag 77: Wat verwacht u precies van overheden als u hen vraagt om «[er] rekening
mee te houden» dat AI-modellen kunnen hallucineren?
Hoewel door generatieve AI gegenereerde content er op het eerste gezicht vaak geloofwaardig
oogt, geven generatieve AI-modellen niet altijd een feitelijk juist antwoord. Dat
komt omdat generatieve AI-modellen niet zijn geoptimaliseerd voor nauwkeurigheid.
Het genereren van output die onwaar is wordt «confabuleren», of beter bekend «hallucineren»,
genoemd. Zo kan een generatief AI-model een onjuist gegeven presenteren als feit.
De kwaliteit van de trainingsdata van een generatief AI-model én de kwaliteit van
de opdracht aan de toepassing (de «prompt») beïnvloeden in grote mate de kwaliteit
van de output. Zo kunnen de uitkomsten van generatieve AI-modellen een onvolledig
beeld geven of niet meer actueel zijn, vanwege incomplete of verouderde trainingsdata.
Overheden en medewerkers moeten zich hier bewust van zijn. Ook als de governance rondom
dergelijke AI-toepassingen in orde is en de risico’s zo goed mogelijk zijn afgedekt,
bestaat de kans nog steeds dat generatieve AI-systemen hallucineren. Dit vereist enige
mate van AI-geletterdheid bij overheidsmedewerkers, een eis die ook vanuit de AI-verordening
wordt gesteld. In de beantwoording bij vraag 25 geef ik aan hoe ik AI-geletterdheid
bij ambtenaren wil stimuleren.
Vraag 78: Welke technieken zijn er om de kans op fouten door AI-toepassingen te verkleinen
en wat doet u om deze technieken zo breed mogelijk toe te passen?
Het risico op fouten kan op een aantal manieren worden beperkt. Allereerst kan dit
door ervoor te zorgen dat de data waarop het systeem wordt getraind actueel, betrouwbaar
en specifiek op de context van toepassing is. Dit verkleint de kans op hallucineren,
doordat het systeem minder «irrelevante» informatie mee hoeft te wegen in het opstellen
van een antwoord. Toch wordt hiermee de kans op onjuiste output nooit volledig weggenomen.
Ten tweede kunnen organisaties gebruik maken van AI-systemen die bronvermeldingen
genereren. Dit is een goede manier voor een eindgebruiker om te controleren of een
antwoord klopt of niet. Ik raad overheidsorganisaties aan om dit als «requirement»
te stellen bij de ontwerpfase van een AI-systeem of om deze behoefte te specificeren
tijdens het inkoopproces.
Ten derde is het nodig om te zorgen voor menselijke controle bij een besluit, door
iemand die bevoegd en bekwaam is om een beslissing of besluit te nemen en te wijzigen
bij dat besluit te betrekken. Dit moet ingebed worden in de werkprocessen die rondom
AI-systemen worden gehanteerd.
Ik zorg voor meer bewustwording over deze en andere technieken onder andere door organisaties
te wijzen op het Algoritmekader, waar bovenstaande technieken en verdere toelichting
in zijn opgenomen.
Vraag 79: Hoe voorkomt u dat foute informatie uit een AI-toepassing leidt tot een
beslissing die nadelig uitpakt voor burgers?
Transparantie over het gebruik van AI en uitleg over de werking daarvan en de rol
in het besluitvormingsproces, moet de burger de mogelijkheid geven de juistheid daarvan
te beoordelen. Tegen besluiten staan rechtsmiddelen open die burgers kunnen inroepen,
zoals het maken van bezwaar. Deze vraag heeft raakvlakken met de analyse van de opbrengst
van de internetconsultatie over het «reflectiedocument algoritmische besluitvorming
en de Algemene wet bestuursrecht» dat ik uw Kamer binnenkort zal zenden, zie het antwoord
bij vraag 4.
Vraag 80: Kunnen burgers zich beroepen op het recht op inzage van hoe hun gegevens
zijn verwerkt in een AI-toepassing die wordt betrokken in de besluitvorming van de
overheid?
Zie de beantwoording bij vragen 73 en 79. In aanvulling daarop, geven zowel de Algemene
wet bestuursrecht, in artikel 7:4, als artikel 15 van de Algemene Verordening Gegevensbescherming,
een recht op inzage van de gebruikte gegevens.
Vraag 81: Hoe gaat u samenwerking tussen overheden op het gebied van AI-toepassingen
gebruiken en ontwikkelen vormgeven? Wanneer krijgt deze samenwerking vorm?
Zie de beantwoording bij vraag 13.
Vraag 82: Welke garanties vraagt u bij het inkopen van AI-toepassingen voor het respecteren
van auteursrecht en het verzekeren van een eerlijke compensatie voor makers wiens
producties hierin zijn verwerkt?
Het Ministerie van BZK heeft aan het Centrum Informatiebeveiliging en Privacybescherming
(CIP) gevraagd om een traject te starten rondom inkopen van AI voor de gehele overheid.
Denk hierbij aan duidelijke (aanvullende) inkoopvoorwaarden, en bijscholing van medewerkers
en inkopers. Hiermee hoop ik organisaties te ondersteunen in het doorlopen van het
inkoop- of ontwikkelproces, zodat organisaties sneller aan de slag kunnen met verantwoorde
generatieve AI.
Met het overheidsbrede standpunt stel ik geen eis aan de compensatie voor makers wier
productie is verwerkt in generatieve AI. Zie hiervoor de beantwoording bij vraag 49
en 50.
Vraag 83: Welke concrete pilots met generatieve AI zijn sinds 2024 gestart binnen
de rijksoverheid, provincies of gemeenten?
Er zijn tal van experimenten en pilots gestart binnen de overheid. Dit valt niet in
één overzicht samen te vatten, omdat het zich in een hoog tempo ontwikkelt. Hieronder
noem ik een aantal veelbelovende voorbeelden.
Dienstverlening aan burgers & bedrijven
• Chatbot Guus25 – gemeente Goes (gestart april 2025): Een AI-chatbot die via generatieve AI vragen van inwoners beantwoordt op basis van
de gemeentelijke website. Door alleen geverifieerde bronnen (zoals goes.nl) te gebruiken,
maakt «Guus 3.0» de digitale dienstverlening toegankelijker en is de chat beter afgestemd
op de leefwereld van inwoners.
• MAI (Montferland AI)26 – gemeente Montferland (pilot gestart oktober 2024): Een lokaal ontwikkelde chatbot, in eigen beheer, opgebouwd met een generatief AI-model.
Het doel is om de arbeidsdruk verlichten en inwoners op elk moment van de dag te ondersteunen
bij vragen. De data blijft lokaal en privacy wordt gewaarborgd. De pilot is gepubliceerd
in het Algoritmeregister en er is een DPIA gedaan.
• OmgevingsChat27 – Coöperatie van gemeenten (gestart september 2024): Generatieve AI-chatbot die is gericht op het Omgevingsloket. De chatbot beantwoordt
vragen over omgevingsvergunningen, het milieu en bouwen van burgers en bedrijven op
basis van Omgevingswet-data.
• Virtuele assistent Gem28 – Coalitie van gemeenten (pilot gestart juli 2024): Een gezamenlijke virtuele assistent voor klantcontact, ontwikkeld door meerdere
gemeenten. In 2024 is een pilot begonnen om te onderzoeken hoe generatieve AI de prestaties
van Gem kan verbeteren in het beantwoorden van veel gestelde vragen van burgers. Dit
moet leiden tot snellere en consistentere reacties bij publieksvragen, met behoud
van privacy en betrouwbaarheid.
• AI-ondersteuning re-integratie (WerkSaam)29 – Regionale samenwerking West-Friesland (pilot 2024): Een proef waarbij een regionaal werk-leerbedrijf generatieve AI inzet om de dienstverlening
bij re-integratie te verbeteren. Het systeem zet spraak om in tekst en genereert tijdens
intakegesprekken samenvattingen en suggesties voor vragen. Ook adviseert het AI-systeem
over geschikte voorzieningen (via de VNG-instrumentengids) om werkzoekenden te helpen.
Het doel is om cliënten proactiever te ondersteunen en het proces te versnellen.
Interne efficiëntie
• PZH-Assist30 – Provincie Zuid-Holland (gestart april 2024): Een interne generatieve AI-chatbot voor medewerkers van de provincie, ontwikkeld
als veilig alternatief voor openbare tools als ChatGPT. PZH-Assist draait in een eigen
omgeving (Azure OpenAI) zonder op interne data te zijn getraind. Ambtenaren kunnen
documenten uploaden en vragen stellen, waarbij privacyrisico’s gemitigeerd zijn (gesprekken
worden niet gebruikt om het model te trainen). Deze pilot, gestart in april 2024,
loopt tot eind 2025 en beoogt de productiviteit van medewerkers te verhogen zonder
gevoelige data te lekken.
• Microsoft Copilot in Breda31 – gemeente Breda (pilot gestart najaar 2024): De gemeente Breda test een jaar lang de inzet van Microsoft 365 Copilot (op basis
van GPT-4) om ambtelijke werkzaamheden efficiënter en leuker te maken. In deze proef
wordt gekeken of de AI-assistent kan helpen bij taken als documentcreatie, data-analyse
en communicatie, zodat routinematige werkzaamheden versneld worden en ambtenaren meer
tijd overhouden voor complexere taken.
• Anonimiseren met LLM32 – gemeente Hoeksche Waard (met Barendrecht, Ridderkerk e.a., gestart 2024): Een innovatieproject gericht op het verantwoord inzetten van generatieve AI voor
privacy. Het doel is om overheidsdocumenten (bijvoorbeeld in het kader van WOO-verzoeken)
automatisch te ontdoen van persoonsgegevens met behulp van een taalmodel. De AI herkent
en verwijdert gevoelige informatie in teksten, zodat data veilig gedeeld en geanalyseerd
kunnen worden zonder privacyrisico’s.
• Chatbot «Sammie» (stikstofassistent)33 – Provincie Noord-Brabant (pilot Q1 2024): Noord-Brabant experimenteerde begin 2024 met «Sammie», een generatieve AI-chatbot
die vragen van ambtenaren over het complexe stikstofdossier beantwoordt. Sammie is
lokaal getraind op provinciale data (zoals realtime stikstofmetingen en Natura2000-kaarten)
en geeft bij elk antwoord de bronvermelding (document en paginanummer) ter controle.
De pilot liep tot maart 2024 en werd positief geëvalueerd. Dankzij Sammie konden medewerkers
sneller informatie vinden over milieugegevens, met behoud van betrouwbaarheid en transparantie,
wat bijdraagt aan beter onderbouwd milieubeleid.
In het derde kwartaal van dit jaar komt TNO – in opdracht van BZK – met een overheidsbrede
monitor generatieve AI, waarin ook nader inzicht zal worden geboden in de generatieve
AI-inzet bij Nederlandse overheidsorganisaties.
Vraag 84: Hoe wordt vastgesteld of een AI-toepassing daadwerkelijk bijdraagt aan publieke
doelen zoals genoemd in de handreiking?
Eén van de voorwaarden die ik in het overheidsbrede standpunt stel, is dat voldoende
duidelijk wordt gemaakt welk doel gediend wordt met de inzet van de generatieve AI-toepassing.
Vragen en interne gesprekken over het doel, ook in relatie tot het maatschappelijke
resultaat, zijn vaak een onderdeel van het doorlopen van een aanbestedingstraject
of risicoanalyse.
Het helder omschrijven van doelen raakt bovendien aan het zorgvuldigheidsvereiste
uit de Algemene wet bestuursrecht, welke eist dat een besluit met de nodige zorgvuldigheid
wordt voorbereid en juist wordt genomen. Dit vraagt onder meer om een zorgvuldig onderzoek
naar informatie, feiten, een zorgvuldige beslissingsprocedure en een deugdelijke besluitvorming.
Vraag 85: Welke maatregelen zijn getroffen bij de reeds gestarte pilots om ambtenaren
AI geletterd te maken, zoals aanbevolen in hoofdstuk 4.2 van de handreiking?
Zie de beantwoording bij vraag 25.
Vraag 86: Is het oprichten van een ethische commissie door overheidsorganisaties verplicht
of slechts een aanbeveling?
Dit is niet verplicht. Een ethische commissie is een van de instrumenten die overwogen
kan worden voor verantwoorde inzet van AI. Zie ook mijn beantwoording bij vragen 26,
27 en 42.
Ondertekenaars
-
Eerste ondertekenaar
N.T.P. Wingelaar, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
S.R. Muller, adjunct-griffier