Inbreng verslag schriftelijk overleg : Inbreng verslag van een schriftelijk overleg over Overheidsbrede visie op generatieve artificiële intelligentie (AI) (Kamerstuk 26643-1125)
2024D06102 INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
Binnen de vaste commissie voor Digitale Zaken hebben enkele fracties de behoefte om
enkele vragen en opmerkingen voor te leggen aan de Staatssecretaris van Binnenlandse
Zaken en Koninkrijksrelaties over de brief d.d. 18 januari 2024 inzake «Overheidsbrede
visie op generatieve artificiële intelligentie (AI)» (Kamerstuk 26 643, nr. 1125).
De fungerend voorzitter van de commissie,
Kathmann
De adjunct-griffier van de commissie,
Muller
Inhoudsopgave
I Vragen en opmerkingen vanuit de fracties
Vragen en opmerkingen van de leden van de GroenLinks-PvdA-fractie
Vragen en opmerkingen van de leden van de VVD-fractie
Vragen en opmerkingen van de leden van de NSC-fractie
Vragen en opmerkingen van de leden van de D66-fractie
Vragen en opmerkingen van de leden van de BBB-fractie
Vragen en opmerkingen van de leden van de CDA-fractie
Vragen en opmerkingen van de leden van de SP-fractie
Vragen en opmerkingen van de leden van de Volt-fractie
II Antwoord / Reactie van de bewindspersoon
I Vragen en opmerkingen vanuit de fracties
Vragen en opmerkingen van de leden van de GroenLinks-PvdA-fractie
De leden van de GroenLinks-PvdA-fractie hebben met interesse kennisgenomen van de
Overheidsbrede visie generatieve AI. Deze leden erkennen dat generatieve AI, mits
goed ingezet, een belangrijke maatschappelijke rol kan vervullen. Echter zijn de mogelijke
risico’s dusdanig groot dat de leden kritisch blijven op het uitrollen en omarmen
van deze te weinig gereguleerde technologie. Daarover hebben zij opmerkingen en vragen.
De leden van de GroenLinks-PvdA-fractie zullen hun opmerkingen en vragen per hoofdstuk
benoemen, te beginnen met hoofdstuk 1. Hierin wordt verwezen naar het wettelijk kader
dat de AI-verordening schept. Deze leden vragen op welk gebied er aanvullend nationaal
beleid nodig is om volledig te handelen naar de waarden die Nederland nastreeft in
haar digitalisering.
De leden van de GroenLinks-PvdA-fractie hebben opmerkingen en vragen over hoofdstuk
2. Zij vinden het risico van «hallucineren», waarbij een AI-model een verkeerd antwoord
geeft, groot. Is het mogelijk om, bij AI-gegenereerde antwoorden die onzeker of niet
geverifieerd zijn, een indicatie van twijfel toe te voegen? Welke waarborgen zijn
er of worden ingebouwd zodat AI-modellen niet naar onbetrouwbare websites verwijzen
en deze informatie uit de gebruikte trainingsdata wordt geweerd? Ook lezen de leden
over het oprichten van een AI-adviesraad. Zij vinden het wenselijk dat deze als kenniscentrum
dient. Echter zijn de leden van deze fractie van mening dat de discussie rondom waarden
en ethiek bij het toepassen van AI in de Tweede Kamer thuishoort. Welke bevoegdheden
heeft de adviesraad en over welke thema’s zullen zij adviezen uitbrengen? De leden
vinden de visie op het gebied van «artificial general intelligence» nog weinig concreet.
Kunt u nader toelichten wat Nederland doet op dit gebied? Ontwikkelt u hiervoor ook
een strategie? Bovendien zien de leden twee sporen voor zich waarop Nederland een
factor van belang kan zijn: het stimuleren en bijdragen aan Nederlandse of Europese
techbedrijven die concurreren met de grote techgiganten om de machtsconcentratie op
te breken, of het specialiseren in een gerichte toepassing van AI waar Nederland een
niche mee invult en toonaangevend in wordt. Bent u het eens met deze analyse? Welke
inzet levert u op deze mogelijke twee sporen? Welk uniek specialisme heeft Nederland
te bieden in het ontwikkelen van waardengedreven AI en de onderliggende infrastructuur?
Hoe versterkt u deze expertise? Welke samenwerkingen met andere EU-lidstaten liggen
hierin voor de hand?
De leden van de GroenLinks-PvdA-fractie hebben opmerkingen en vragen over hoofdstuk
3. De leden lezen daarin een uitgebreide uiteenzetting van de kansen en risico’s van
generatieve AI, maar missen op meerdere vlakken een duidelijke keuze tussen die belangen.
De Staatssecretaris benoemt in haar brief dat de wenselijkheid van generatieve AI
afhangt van de ontwikkeling, technologie en de intenties van de gebruiker. De leden
vinden dat deze visie juist moet dienen om de bescherming tegen onwenselijk gebruik
vast te leggen. Hoe zorgt u ervoor dat de risico’s gemitigeerd worden en de kansen
op een verantwoordelijke wijze worden benut? Zij sporen het kabinet ook aan om duidelijker
te maken hoe zij de kansen en risico’s tegen elkaar afweegt. Over de rol van generatieve
AI als productietool willen de leden van de GroenLinks-PvdA-fractie weten hoe duidelijk
wordt gemaakt wie de eigenaar van gegenereerde content is. Is dit de eigenaar van
het AI-model, de personen wiens werk in de trainingsdata is gebruikt, of de eindgebruiker?
Welke vorm van eigenaarschap vindt u wenselijk en hoe zorgt u ervoor dat dit is geborgd?
Deze leden zijn van mening dat de risico’s dusdanig groot en maatschappelijk ontwrichtend
zijn dat enige terughoudendheid op zijn plaats is. Zij pleiten eerst voor een verstrekkende
regulering op de ongebreidelde marktwerking achter AI-modellen en stevige waarborgen
dat deze het publieke belang dienen, voordat de kansen volop worden benut. De leden
lezen over pilots met generatieve AI binnen de overheid op het gebied van dienstverlening.
Kunt u toelichten welke generatieve AI-toepassingen nu worden gebruikt, getest of
ontwikkeld bij de verschillende ministeries? Op welke wijze wordt de Kamer geïnformeerd
over de reikwijdte en bevindingen van deze toepassingen? De leden benadrukken dat
menselijke tussenkomst een randvoorwaarde is bij AI-geassisteerde besluitvorming die
betrekking heeft op mensen. Hoe is dit geborgd?
De risico’s zijn volgens de leden van de GroenLinks-PvdA-fractie verstrekkend en zwaarwegend.
Zo is het mogelijk grootschalig schenden van mensenrechten door ondoordachte AI-modellen
een grote zorg. De leden lezen dat er «mogelijke» schendingen zijn van rechten op
privacy, gegevensbescherming en auteursrechten. Echter is dit toch al een bewezen
probleem van generatieve AI-modellen getraind op data via «scraping»? Bent u het met
de leden eens dat het essentieel is om auteursrechten van onder andere journalisten,
kunstenaars en wetenschappers beter te beschermen en het ongebreideld scrapen van
data dit nu onmogelijk maakt? Zijn zij nog de eigenaar van de AI-producties die hun
werk gebruiken? Ook is het van groot belang dat AI-modellen zonder bias opereren,
maar dit is moeilijk te controleren wegens het «black box»-effect van generatieve
AI. Hoe dwingt u AI-ontwikkelaars tot transparantie? Welke rol speelt het Rijks AI-validatieteam
daarin? Hoe ver strekt haar bevoegdheid? De marktmacht van enkele monopolistische
megabedrijven zien de leden van deze fractie als een van de meest fundamentele mankementen
van het digitale domein, met verstrekkende en vaak onwenselijke invloed op de manier
waarop AI-producten werken en gebruikt worden. Deze leden vragen u hoe u dit weegt
in deze visie: is het vergroten van de afhankelijkheid van buitenlandse techgiganten
niet rechtstreeks in strijd met de breed gedragen wens voor digitale strategische
autonomie binnen Nederland en Europa? De leden zijn tevens bezorgd over de invloed
van AI op arbeid. Waarop baseert u de claim dat economen geen afname van werkgelegenheid
verwachten? Is de huidige arbeidsmarkt voldoende voorbereid op de mogelijke verschuivingen
van werk? In welke sectoren en welke soorten functies worden (op korte termijn) de
grootste verschuivingen verwacht en hoe bereidt u werknemers daarop voor? Kunt u garanderen
dat de extra winst die voortkomt uit toepassingen van generatieve AI daadwerkelijk
ten goede zal komen aan werknemers? Hoe wordt deze winst ten goede gebracht van de
brede welvaart? Welke waarborgen zijn er nodig om een rechtvaardige verdeling van
de winsten gemaakt door AI-toepassingen te garanderen? Op pagina 25 stelt u de volgende
vragen: «Wie is er bijvoorbeeld verantwoordelijk voor schadelijke dan wel illegale
inzet of output van bepaalde generatieve-AI-model? De modelontwikkelaar, de ontwikkelaar
van de toepassing, de organisatie die de tool implementeert of de gebruiker?» Dit
vinden de leden terechte vragen, maar zij verwachten dat het kabinet hier ook een
uitgesproken mening over heeft. Kunt u de voor- en nadelen noemen van ieder van deze
actoren? Welke rolverdeling vindt u wenselijk en hoe stuurt u hier op aan?
De leden van de GroenLinks-PvdA-fractie hebben nog enkele opmerkingen over hoofdstuk
4. Dit hoofdstuk geeft een duidelijk overzicht van huidige wet- en regelgeving. Deze
leden zijn echter benieuwd hoe de controle op deze wetgeving is geregeld. Zij zien
dat de grote stroom aan nieuwe regelgeving zorgt voor tegenstrijdigheden en onduidelijkheid
bij sommige besluiten. Welke toezichthouder is verantwoordelijk voor het beslechten
van dergelijke interpretatieverschillen en het scheppen van precedent? Is er een toezichthouder
die de samenhang van wetten bewaakt en een duidelijker handelingsperspectief ontwikkelt
als houvast voor uitvoerders en bedrijven? De leden steunen de richting van «open
source, tenzij». Het is hen alleen nog niet duidelijk wanneer de «tenzij» van pas
komt. Wanneer acht u het onmogelijk om open-source software in te zetten? Welke kaders
geeft u organisaties die deze afweging moeten maken?
De leden bedanken u en de betrokken ambtenaren voor het beantwoorden van de vragen.
Vragen en opmerkingen van de leden van de VVD-fractie
De leden van de VVD-fractie hebben kennisgenomen van de Overheidsbrede visie op generatieve
artificiële intelligentie (AI). Deze leden hebben nog enkele vragen en opmerkingen.
De leden van de VVD-fractie lezen dat generatieve AI kan bijdragen aan de duurzaamheidstransitie.
Hoe zullen op korte termijn de zorgen over het energiegebruik opgevangen worden? Ook
met oog op de krapte op het stroomnet?
De bovengenoemde leden vinden het goed dat de opgave om mensen te ondersteunen om
zich te blijven ontwikkelen om vaardigheden te vergaren die aansluiten op de arbeidsmarkt
mocht hun baan verdwijnen door technologie wordt aangepakt. Is hier ook een dialoog
met het Ministerie van SZW over?
De leden van de VVD-fractie delen de zorgen over de afhankelijkheid van taalmodellen
uit niet-Europese landen. Kunnen deze modellen naast het stroken met onze normen en
waarden ook bijdragen aan discriminatie? Hoe wordt dit voorkomen? Wordt er ook ingezet
op de ontwikkeling van taalmodellen die in Europa ontwikkeld worden?
Deze leden lezen dat de Autoriteit Persoonsgegevens toezicht moet houden op de naleving
van de Algemene Verordening Gegevensbescherming (AVG). Is er genoeg ruimte en capaciteit
binnen deze organisatie om dit goed uit te voeren?
De leden van de VVD-fractie vragen op welke manier een AI-adviesorgaan (of «Rapid
Response Team») meegenomen kan worden in de besluiten die het kabinet neemt over belangrijke
ontwikkelingen op het gebied van (generatieve) AI.
Tot slot willen de leden van de VVD-fractie graag de aangenomen motie Rajkowski en
Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) in herinnering brengen. Eerder heeft het kabinet in een brief aangegeven het verbieden
van ontwrichtende aanbevelingsalgoritmes niet uit te gaan voeren. Tegelijkertijd lezen
deze leden dat het kabinet momenteel de inrichting van een AI-adviesorgaan aan het
verkennen is. Wanneer dit AI-adviesorgaan operationeel is, zouden de leden van de
VVD-fractie graag de aangenomen motie Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) voor nader advies willen voorleggen aan het te vormen AI-adviesorgaan. Is het kabinet,
gelet op de brede meerderheid voor de motie, voornemens de motie voor te leggen aan
het in te richten AI-adviesorgaan? Zo nee, waarom niet?
Vragen en opmerkingen van de leden van de NSC-fractie
De leden van de NSC-fractie hebben met interesse kennisgenomen van de overheidsbrede
visie op generatieve AI.
De leden van de NSC-fractie hechten eraan het volgende te benadrukken. Het is met
het oog op de ontwikkelingen van de afgelopen jaren niet onwaarschijnlijk dat AI als
systeemtechnologie wereldwijd voor nog onvoorzienbare veranderingen gaat zorgen op
mondiaal niveau. Dit is afhankelijk van de wijze en het tempo waarin generatieve en
overige vormen van AI ontwikkelen, evenals de toepassingsgebieden waarvoor de technologie
inzetbaar blijkt en de systemen waarop AI opereert. Een cruciale kwestie is of (en
op welke termijn) uiteindelijk een vorm van «general intelligence» met een hoog adaptief
en evoluerend vermogen zal kunnen ontstaan. Dit zou in negatieve scenario’s tot gevolg
kunnen hebben dat de mens de grip op de technologie verliest, met gevolgen in het
spectrum van maatschappelijk verstorend tot existentieel bedreigend. Hierbij is onder
meer te denken aan – al dan niet intentioneel – sabotage van (vitale) infrastructuur,
digitale massasurveillance en een betrouwbaarheidscrisis in het domein van informatievoorziening.
Er bestaat geen consensus over de waarschijnlijkheid van deze scenario’s, maar een
significant aantal toonaangevende AI-experts heeft reeds aangegeven de potentiële
dreiging serieus te nemen en heeft in dat kader opgeroepen tot actie en internationale
coördinatie. Dit was onder andere de aanleiding voor de eerste AI Safety Summit van
afgelopen november. De overheidsbrede visie benoemt ook het belang van een actieve
rol voor Nederland op het internationale toneel, met onder andere het bepleiten van
«pre-deployment audits» en het beschikbaar stellen van de «model weights» van de grote,
geavanceerde modellen. De leden van deze fractie zouden graag zien dat die visie op
waardengedreven en specifiek veilige AI in een internationale context verder uitgediept
wordt.
Met de overweging dat enerzijds de doorontwikkeling van hoogwaardige AI mogelijk risico’s
van een ongekende aard en omvang met zich meebrengt, en dat anderzijds de belangrijkste
ontwikkelingen op AI zich hoofdzakelijk buiten de landsgrenzen afspelen, is het is
de opvatting van de leden van de NSC-fractie dat Nederland moet komen tot een risicogebaseerde
internationale AI-strategie, vergelijkbaar met de Internationale Cyberstrategie (ICS).
Met het besef dat AI-incidenten niet categorisch voorkomen zullen kunnen worden, achten
de leden het daarnaast van belang dat adaptieve maatregelen voor de Nederlandse fysieke
en digitale leefomgeving in kaart gebracht worden met als doel potentiële schade door
toekomstige geavanceerde AI te mitigeren of voorkomen.
Het kabinet stelt, in de ogen van de leden van de NSC-fractie, terecht dat de keten
van de ontwikkeling van state-of-the-art AI-modellen een grote afhankelijkheid kent
van Amerikaanse marktpartijen, maar dat Nederland vanwege zijn sterke halfgeleiderecosysteem
tegelijkertijd een unieke positie in deze keten heeft. Dit maakt dat de leden benieuwd
zijn wat de inzet van het kabinet gaat zijn binnen de Europese samenwerking om een
goede concurrentiepositie op AI voor niet alleen de Europese Unie, maar ook specifiek
voor Nederland te realiseren. Zij verzoeken het kabinet dit nader toe te lichten.
De leden van de NSC-fractie vragen, nu het kabinet benoemt dat significante investeringen
in AI-infrastructuur benodigd zijn, of het kabinet kan inschatten of de huidige Nederlandse
datacenter- en netcapaciteit volstaat om een volwassen AI-ecosysteem te creëren en
te onderhouden, en zo niet, welke keuzes en afwegingen hierin gemaakt moeten worden.
Het kabinet stelt dat de hogere arbeidsproductiviteit ten gevolge van generatieve
AI met het oog op historische trends zou kunnen leiden tot een toename in materiële
welvaart, betere gezondheid en meer vrije tijd. De leden van de NSC-fractie willen
hier wat kritische kanttekeningen bijplaatsen, omdat dit in hun ogen neigt naar een
papieren werkelijkheid. Deze leden stellen ten eerste dat productiviteitsgroei niet
de facto ook leidt tot een brede en eerlijke verdeling van de welvaart. Ten tweede
willen zij benoemen dat het historisch gezien zeker niet evident is dat verhoogde
productiviteit maakt dat mensen, specifiek diegenen die werken in dienstverband, meer
vrije tijd krijgen. De leden verzoeken daarom het kabinet deze voorspelling nader
te onderbouwen. Omdat het visiedocument hier niet nader op ingaat, vragen de leden
welke maatregelen het kabinet wil treffen om te stimuleren dat productiviteitsgroei
door AI leidt tot brede welvaart en een betere kwaliteit van leven.
De leden van de NSC-fractie vragen of er inmiddels iets meer bekend is over de contouren
van het eventuele Rapid Response Team AI. Deze leden vragen het kabinet wat het maakt
dat dit initiatief nog steeds in de verkenningsfase zit en welke afwegingen hierin
nog spelen.
Vragen en opmerkingen van de leden van de D66-fractie
De leden van de D66-fractie hebben met interesse kennisgenomen van de overheidsbrede
visie op generatieve AI. Deze leden hebben nog enkele vragen naar aanleiding van het
visiestuk en de begeleidende brief.
Allereerst moedigen de leden van de D66-fractie van harte aan dat er ook goed wordt
gekeken naar de kansen en mogelijkheden die generatieve AI biedt aan de samenleving.
Gelukkig wordt dat ook veelvuldig benoemt in zowel de brief als het visiestuk. Zo
wordt AI bijvoorbeeld gezien als «probleemoplosser» voor problemen binnen de gezondheidszorg.
Deze leden zien graag een specificering op deze terreinen. Op welke manier kan AI
als probleemoplosser functioneren voor maatschappelijke thematiek (zoals de gezondheidszorg)
en wat er is er voor nodig om dat te bewerkstelligen? Het derde uitgangspunt, «het
dienen en borgen van menselijke autonomie», moedigt enerzijds de inzet van AI in de
zorg aan, en geeft aan dat het tegelijkertijd onwenselijk kan zijn. Vervolgens is
de conclusie dat er maatschappelijk debat nodig is. Deze leden zouden graag een duidelijker
standpunt zien ten opzichte van het zorgveld, waarbij de inzet – mits volgens alle
voorzorgmaatregelen – wordt aangemoedigd en aangejaagd, zeker gezien de opgave binnen
de zorg.
De leden van de D66-fractie constateren dat er al veel initiatieven zijn gestart om
de vertaalslag van generatieve AI te maken naar constructieve bijdragen aan de samenleving.
Zo bestaan er Ethical Legal and Societal Apects (ELSA)-labs waarin onderzoek wordt
gedaan naar ethische en juridische aspecten van AI en worden er innovatielabs georganiseerd
in samenwerking met AiNed. Kan het kabinet een aantal concrete resultaten of winstpunten
benoemen die deze initiatieven hebben opgeleverd, behalve de samenwerkingsverbanden
zelf?
De leden van de D66-fractie juichen toe dat de overheid investeert om verschillende
sectoren voor te bereiden op het gebruik van generatieve AI. Uit de brief blijkt dat
er voor een periode van tien jaar wordt gefinancierd met middelen vanuit het Nationaal
Groeifonds. Echter, in hoeverre liggen deze middelen al vast? Kan deze financiering
door een volgend kabinet weer worden stopgezet, of zijn deze verplichtingen juridisch
verplicht?
Uit de brief blijkt ook dat het overheidsbreed de inzet is om nieuwe generaties generatieve
AI met Nederlandse en Europese partners te ontwikkelen. In hoeverre zijn daar financiële
middelen aan gekoppeld en zijn daar al voorbeelden van, zo vragen de leden van de
D66-fractie?
De leden van de D66-fractie lezen dat er duidelijk wordt gemaakt waar AI-toepassingen
volgens deze visie aan moet voldoen en waar ontwikkelaars zich aan dienen te houden.
Tegelijkertijd weten we dat generatieve AI veel van wat online staat kan «scrapen»
en daar trainingsmodellen mee kan vullen, ook als dit bijvoorbeeld persoonsgegevens
bevat. In hoeverre zijn toezichthouders in staat om te deduceren met welke data taalmodellen
zijn getraind, ook gezien de constatering in de overheidsvisie zelf dat generatieve
AI modellen een significant «black-box karakter hebben» en «een gebrek aan interpreteerbaarheid
hebben»? Welke methodes hebben toezichthouders om bij generatieve AI-modellen die
niet open-source werken in te zien of de taalmodellen met de juiste data zijn getraind?
De leden van de D66-fractie maken zich zorgen om het auteursrecht dat gepaard gaat
met generatieve AI-modellen. In de overheidsbrede visie wordt daar op ingegaan. Het
is nu nog niet duidelijk of generatieve AI-modellen een beroep kunnen doen op de tekst-
en datamining-exceptie. Dit betekent dat er mogelijk al lange tijd auteursrechten
worden geschonden. Deze leden willen graag weten of er geen stappen mogelijk zijn
om daar meer zekerheid in te krijgen, zoals het inwinnen van advies van de landsadvocaat
of de Raad van State? De leden begrijpen dat online beschikbare werken nu alleen zijn
beschermd als er een correct voorbehoud is gemaakt. In hoeverre is dit bekend, zo
vragen de leden van deze fractie, en zou dit niet breder gecommuniceerd moeten worden?
Ook wordt er gesteld dat output door AI alleen auteursrechtelijk wordt beschermd als
er een samenwerking tussen een mens en AI is, maar vervolgens wordt gesteld «waarschijnlijk
is de menselijke invloed op het uiteindelijke resultaat nog niet voldoende om van
een werk in een de auteursrechtelijke betekenis van het woord te kunnen spreken».
Deze leden zouden dit graag verhelderd zien worden: betekent dit dat door AI gegenereerd
werk sowieso nooit een «werk in de auteursrechtelijke betekenis van het woord» kan
zijn, ondanks de hoeveelheid creatieve keuzes? Wie maakt daarin de afweging? En in
hoeverre is dit onderdeel van de AI Act?
Tot slot merken de leden van de D66-fractie op dat in de zes actielijnen van de kabinetsbrede
visie weinig staat over het aantrekkelijk maken en stimuleren van het ondernemingsklimaat
voor start-up/scale-ups op het gebied van generatieve AI. In hoeverre ligt daar een
duidelijke visie aan ten grondslag en zijn daar financiële middelen aan gekoppeld?
In hoeverre is er een duidelijk Europees initiatief, waarbij wordt geïnvesteerd in
veelbelovende innovaties (zoals bij het Groeifonds)?
Vragen en opmerkingen van de leden van de BBB-fractie
De leden van de BBB-fractie hebben de stukken ter kennis aangenomen en hebben hierover
de volgende vragen;
De leden van de BBB-fractie wijzen op de volgende passage uit de brief (Kamerstuk
26 643, nr. 1125): «Het kabinet richt de aandacht in het bijzonder op de impact van deze nieuwe digitale
technologie op de samenleving.» (blz. 1). Hierover vragen deze leden wat de vastgestelde
grenzen zijn aan het gebruik van AI met betrekking tot de bevoegdheden van overheden
die ingrijpen in de rechtspositie van mensen.
De leden van de BBB-fractie lezen het volgende: «Ook bestaan er zorgen over mogelijke
schendingen van rechten op het gebied van privacy, gegevensbescherming en auteursrechten.»
Kan de Staatssecretaris aangeven in hoeverre de mogelijkheid tot bijvoorbeeld «scrapen»
een bedreiging vormt voor de onafhankelijke en kwalitatieve nieuwsvoorziening in Nederland?
Deze leden lezen tevens: «Wat werk betreft, zijn er zorgen over de impact van generatieve
AI op werkgelegenheid, de kwaliteit van werk en inkomensverdeling. Zowel op de korte
als lange termijn kan generatieve AI leiden tot werkloosheid.» (blz. 5). Kan de Staatssecretaris
verduidelijken welk deel van de arbeidspopulatie mogelijk geraakt gaat worden door
de invloed van AI, hoeveel procent dit is, welke sectoren het meest positief en negatief
beïnvloed gaan worden door de opkomst van AI? Hoeveel mensen zouden er cijfermatig
omgeschoold moeten worden omdat een baan geautomatiseerd wordt, en hoeveel is dit
procentueel van de totale arbeidspopulatie? Kan de Staatssecretaris aangeven waar
de kansen liggen voor de Nederlandse economie in brede zin?
De leden van de BBB-fractie citeren de passage: «Maar er is ook een risico dat het
taken doet verschralen, de autonomie van werkenden inperkt en de menselijkheid van
werkrelaties onder druk zet.» (blz. 5). Kan de Staatssecretaris aangeven hoe de autonomie
van werkenden ingeperkt worden, en welk beleid er wordt gemaakt om dit te voorkomen?
Kan de Staatssecretaris verduidelijken hoe de menselijkheid van werkrelaties onder
druk worden gezet en hoe dit voorkomen kan worden, en of hier actief beleid op wordt
gemaakt?
Deze leden lezen: «Hier ligt onder andere een opgave van digitale inclusie.» (blz.
5). Kan de Staatssecretaris dit verder uitwerken, wat wordt er bedoeld met «digitale
inclusie», en hoe omschrijft de Staatssecretaris dit?
De leden van de BBB-fractie zien de volgende passage: «Als alle mensen handvaten geboden
wordt om nieuwe technologie te begrijpen en gebruiken, kunnen zij ook beter inspelen
op de veranderingen die dat met zich meebrengt» (blz. 5). Hoe kunnen burgers die niet
zo digitaal vaardig zijn meekomen in de omgang met deze technologie? Wordt er behalve
aan kinderen ook aan ouderen gedacht wat betreft het laten begrijpen en gebruiken
van deze nieuwe technologie?
Deze leden lezen: «Een andere uitdaging betreft machtsconcentratie. De opkomst van
generatieve AI-technologie versterkt de al bestaande dynamiek in digitale markten,
waarmee het risico op misbruik van marktmacht toeneemt.» (blz. 5). Kan de Staatssecretaris
weergeven of en hoe mkb-bedrijven kunnen meekomen met het gebruik van deze technologie,
en waar deze bedrijven nu tegenaan lopen bij het gebruik van deze nieuwe technologie?
De leden van de BBB-fractie lezen: «Kan dit leiden tot verhoogde toetredingsdrempels,
hetgeen potentieel belemmerend is voor een productieve marktwerking.» (blz. 5). In
hoeverre ontwerpt de Staatssecretaris beleid om deze potentiële belemmering te voorkomen?
De leden van de BBB-fractie wijzen op de volgende passage: «De uitdaging is dan ook
om een markt te creëren waarin generatieve AI-toepassingen worden aangeboden die aan
alle Nederlandse en Europese waarden en wetten voldoen.» (blz. 5). Hoe en door wie
worden die «Nederlandse en Europese waarden en wetten» vastgesteld? Is de Staatssecretaris
het ermee eens dat die waarden en wetten een continu veranderend proces zijn en dat
het continu monitoren van de waarden en wetten nodig is om de wetten en regels omtrent
generatieve AI up-to-date te houden? In hoeverre worden die waarden en wetten bepaald
door de Nederlandse burger, en hoe is dit verwerkt in het beleid om de markt van generatieve
AI toepassingen te reguleren?
De leden van de BBB-fractie lezen: «Dit betekent het actief betrekken van inwoners,
uitvoerders, werknemers, werkgevers, ondernemers, bedrijven en professionals.» Kan
de Staatssecretaris aangeven in hoeverre brancheorganisaties van nieuwsmedia betrokken
zijn bij het vormen van een breed gedragen visie op generatieve AI?
Deze lezen citeren: «Verkennen we daarom onder meer manieren waarop generatieve AI
kan ondersteunen om de communicatie met burgers te verhelderen en inclusiever te maken.»
(blz. 13). Kan de Staatssecretaris specificeren wat er bedoeld wordt met inclusiever
maken? Hoe wordt de communicatie inclusiever? Waarom moet communicatie inclusiever
worden?
De leden van de BBB-fractie citeren: «Ook beproeven we via pilots de meerwaarde van
het toepassen van generatieve AI bij het verbeteren van overheidsdienstverlening.»
(blz. 13). Kan de Staatssecretaris uitwerken welke pilots er lopen, deze opsommen
en kort samenvatten? Hoe zijn die pilots ontworpen, welke ontwerpkeuzes liggen daaraan
ten grondslag? Zijn er al resultaten van lopende pilots aanwezig?
De leden van de BBB-fractie vragen of de Staatssecretaris kan aangeven welke concrete
gedocumenteerde richtlijnen er zijn op het gebied van het gebruik van AI door ambtenaren.
In welke ministeries zijn die richtlijnen aanwezig en zou de Staatssecretaris die
verschillende richtlijnen kunnen verzamelen en naar de Kamer kunnen sturen (dus niet
de richtlijn vanuit de overheidsbrede visie, maar de richtlijnen op het gebied van
het gebruik van AI zoals ambtenaren deze in de praktijk gebruiken)?
De leden van de BBB-fractie citeren: «Dit doen we vanuit een waardengedreven benadering.»
(blz. 13). Kan de Staatssecretaris beschrijven wat deze waarden precies zijn, en wie
die heeft vastgesteld en waar hierover meer informatie te vinden is?
De leden van de BBB-fractie lezen: «Dit vraagt om verdere inzet op het vergroten van
mediawijsheid van verschillende doelgroepen.» (blz. 13). Kan de Staatssecretaris aangeven
of AI gelijke kansen biedt aan theoretische en praktisch geschoolde mensen, of dat
daar een wezenlijk verschil tussen is, en als hier een wezenlijk verschil in zit,
hoe dit voorkomen kan worden?
Deze leden citeren: «Een proactieve benadering is hierbij essentieel, waarbij de overheid
vanaf het begin kaders biedt om de ontwikkeling van generatieve AI in goede banen
te leiden en ongewenste (generatieve) AI te weren.» Kan de Staatssecretaris aangeven
in hoeverre experts het mogelijk vinden om ongewenste (generatieve) AI te weren? Wat
is het percentage waarin dit mogelijk is? Recentelijk vond er een wedstrijd op het
internet plaats om een bepaalde vorm van generatieve AI ondanks veiligheidseisen toch
een output te geven die zou omschreven kunnen worden als onwenselijk. Het is dus mogelijk
om met zeer specifieke input te komen tot een onwenselijke output. In hoeverre is
de Staatssecretaris ervan op de hoogte dat ondanks hoge veiligheidseisen en waarden
het mogelijk is om hiertoe te komen? Wat is volgens de Staatssecretaris het acceptabele
punt waarop het voorkomen van ongewenste uitkomsten door AI bestreden is?
Vragen en opmerkingen van de leden van de CDA-fractie
De leden van de CDA-fractie hebben met interesse kennisgenomen van de visie en hebben
hierover nog enkele vragen.
De leden van de CDA-fractie vragen of de Staatssecretaris een update wil geven over
de laatste stand van zaken ten aanzien van de AI-verordening. Deze leden vragen ook
wanneer de Staatssecretaris de Nederlandse uitvoeringswet verwacht naar de Kamer te
sturen.
De leden van de CDA-fractie vragen of de Staatssecretaris de mening deelt dat de opkomst
van generatieve AI het belang van digitale inclusie en digitale geletterdheid alleen
maar groter maakt. En zo ja, dan vragen deze leden vragen hoe dit tot uiting komt
in extra stappen op dit gebied aanvullend op de acties uit de Werkagenda. Deze leden
vragen welke plaats de ontwikkeling van generatieve AI heeft binnen de aanpak van
digitale inclusie en digitale geletterdheid.
De leden van de CDA-fractie delen de mening dat sterk toezicht nodig is op de risico’s
van generatieve AI. Deze leden lezen dat het kabinet het van belang acht «om te blijven
evalueren of toezichthouders beschikken over de kennis en kunde, capaciteit en middelen
om hun taken nu en in de toekomst effectief te kunnen uitvoeren.» Deze leden vragen
hoe de Staatssecretaris dit concreet aanpakt.
De leden van de CDA-fractie vragen naar de samenhang van deze overheidsbrede visie
met de Nationale Technologie Strategie, waarin AI is aangewezen als één van de tien
sleuteltechnologieën die het Nederlandse verdienvermogen moet stutten. Deze leden
vragen wat de rol van generatieve AI hierin is.
Vragen en opmerkingen van de leden van de SP-fractie
De leden van de SP-fractie hebben kennisgenomen van de overheidsbrede visie generatieve
AI, en hebben hierover een aantal vragen aan de Staatssecretaris van Binnenlandse
Zaken en Koninkrijksrelaties.
De leden van de SP-fractie hebben een aantal vragen over het gebruik van generatieve
AI in de kunst- en cultuursector. Allereerst vragen deze leden of de Staatssecretaris
voldoende in beeld heeft hoe generatieve AI-modellen worden getraind op de kunst en
werk van kunstenaars, auteurs, acteurs, makers van grafische media, musici, en vele
andere beroepen. Kent de Staatssecretaris het NRC interview met de Britse AI-hoogleraar
Steward Russell op 6 nov. jl., waarin deze onder meer zegt: «Als we AI inzetten om
werk te doen dat nu door mensen wordt gedaan, zal de opkomst van AI leiden tot enorme
werkloosheid.»1 Voor de professionals in de culturele en creatieve sector is het nog schrijnender.
Het werk van de mensen in die sector wordt gescrapet en ingezet om generatieve AI-modellen
te trainen, waardoor AI werk kan doen en maken waarmee het werk van echte en levende
kunstenaars en creatieve makers overbodig en in verhouding veel duurder wordt. Hierdoor
verdienen grote techbedrijven zoals Google en OpenAI veel geld aan het harde werk
van kunstenaars en makers en worden diezelfde kunstenaars, naast dat hun eerdere werk
grootschalig wordt gescrapet door diezelfde en veel goedkoper genererende AI-modellen,
ook nog eens van hun toekomstige werk en dus inkomen beroofd. De leden van deze fractiezijn
van mening dat deze praktijken onrechtmatig, onrechtvaardig en vooral ook onwenselijk
zijn. Is de Staatssecretaris het hiermee eens? Als een bedrijf AI-gegenereerd werk
wat bedoeld is om de kunst of stijl van bepaalde personen na te bootsen gebruikt in
hun advertenties en/of producten, is er dan sprake van plagiaat? Welke stappen kunnen
kunstenaars en makers nu nemen om hun werk uit de trainingsdata van generatieve AI
te halen, zoals een opt-out? Is de Staatssecretaris van mening dat kunstenaars en
creatieve makers voldoende worden beschermd? Deelt de Staatssecretaris de mening dat
er bij alle AI-gegenereerde werken duidelijk moet worden weergeven dat het door AI
is gegenereerd? Veel kunstenaars en makers zijn boos en bang over het gebruik van
hun werk in de training van generatieve AI-modellen. Zo heeft de Kunstenbond hierover
een position paper geschreven. Is de Staatssecretaris bekend met deze position paper?
Zou zij hierop een uitgebreide reactie kunnen geven? Is zij bereid de toegelichte
punten in deze paper over te nemen?2
Ook hebben de leden van de SP-fractie vragen over het gebruik van generatieve AI bij
de overheid. In de overheidsbrede visie generatieve AI lezen deze leden dat de Staatssecretaris
mogelijkheden ziet om met gebruik van generatieve AI processen te verbeteren, het
algemeen functioneren van de overheid te verbeteren, en de dienstverlening aan burgers
te optimaliseren. Zou de Staatssecretaris dit kunnen toelichten, en specifiek kunnen
ingaan op hoe generatieve AI kan worden gebruikt bij fraudeopsporing en dienstverlening?
De leden van de SP-fractie zijn van mening dat inzet van AI om fraude op te sporen
niet moet worden toegestaan als mensenrechten niet gewaarborgd kunnen worden. Deelt
de Staatssecretaris deze mening? Is de Staatssecretaris van plan om op grote schaal
chatbots in te zetten bij de rijksoverheid? De leden van de SP-fractie zien daarin
een risico dat chatbots ter vervanging komen van menselijk contact. Is de Staatssecretaris
het met deze leden eens dat het altijd makkelijk moet zijn voor inwoners om menselijk
contact te hebben met de overheid?
Ten slotte hebben de leden van de SP-fractie vragen over het gebruik van generatieve
AI in het onderwijs. De Staatssecretaris geeft namelijk aan dat deze technologie leerlingen
kan ondersteunen bij het maken van samenvattingen, het uitleggen van leerstof en het
creëren van oefenvragen. Deze leden vragen of dit een verbetering van het onderwijs
is. Met dit soort gebruik van generatieve AI worden praktijken die juist goed zijn
om te oefenen overgelaten aan software. Welke impact denkt de Staatssecretaris dat
het gebruik van generatieve AI op deze manier heeft op de leesvaardigheid van leerlingen?
Ook lezen de leden van deze fractie dat docenten generatieve AI kunnen gebruiken om
op basis van studentendata uit het verleden, een voorspelling te maken over het toekomstig
presteren van studenten. Deze leden zien de meerwaarde die deze praktijk kan hebben.
Deze data kan gebruikt worden om te zien welke studenten meer ondersteuning nodig
hebben. Tegelijkertijd zijn deze leden van mening dat docenten dit sowieso moeten
doen, en zij vragen of het gebruik van generatieve AI hiervoor alleen nodig is vanwege
het tekort aan leerkrachten. Is deze werkwijze niets meer dan een pleister plakken
op een diepe wond?
Vragen en opmerkingen van de leden van de Volt-fractie
De leden van de Volt-fractie hebben kennisgenomen van de Overheidsbrede visie op generatieve
AI (hierna: «visie») van het kabinet. De Volt-fractie wil het kabinet en in het bijzonder
de Staatssecretaris voor digitalisering complimenteren met de uitgebreide visie. In
de visie en de bijbehorende stukken blijkt dat het kabinet de ontwikkelingen op het
gebied van AI nauwgezet volgt en blijkt een grote ambitie.
Over de visie hebben de leden van de Volt-fractie nog enkele vragen die zien op de
existentiële risico’s van AI, de internationale samenwerking en eerdere moties die
de Volt-fractie heeft ingediend.
De leden van de Volt-fractie zijn groot voorstander van internationale en Europese
samenwerking op het gebied van AI-regulering en beleid. In dat licht vragen de leden
in hoeverre het kabinet heeft gekeken naar beleid van andere (gelijkgestemde) landen
op het gebied van generatieve AI en welke elementen uit dat beleid zij hebben overgenomen
en of er elementen zijn waar zij expliciet is afgeweken van standaarden uit die landen?
De leden vragen ook op welke punten samenwerking met gelijkgestemde landen nog niet
voldoende functioneert en wat het kabinet daar aan doet.
Kinderen en jongeren hebben breed toegang tot generatieve AI. Soms zelf zonder dat
zij zich daarvan bewust zijn. Die toegang heeft grote impact op hen en zij kunnen
zich daar minder makkelijk tegen weren dan de rest van de samenleving. In dat licht
hebben de leden van de Volt-fractie een aantal vragen: hoe wordt geborgd dat de stem
van kinderen en jongeren mee wordt genomen bij het ontwikkelen van beleid en wetgeving
aangaande (generatieve) AI? Kan het kabinet toelichten waarom in het hoofdstuk over
de wettelijke kaders, het Internationaal Verdrag inzake de Rechten van het Kind niet
is opgenomen? In het geval het kabinet dit wenselijk vindt, is zij bereid om dit wettelijk
kader toe te voegen aan de visie?
De leden van de Volt-fractie hebben meerdere moties op het gebied van AI ingediend
in de afgelopen jaren. Nu de AI-verordening een definitieve tekst heeft, vragen deze
leden of het kabinet al werk maakt van het opnemen van een wettelijke verplichting
voor overheden om algoritmes te registeren in een register.3 Met betrekking tot de motie Dassen om een impactanalyse per ministerie uit te voeren
vragen deze leden het kabinet of zij van mening is dat de motie hierbij volledig is
uitgevoerd. Zo ja, waarom? Zo niet, hoe wordt verder invulling gegeven aan de motie?4
Een risico dat de leden van de Volt-fractie nog onderbelicht vinden in de visie is
het mogelijke existentiële risico dat AI met zich meebrengt.5 Hoewel de leden inzien dat AI grote kansen meebrengt en er aandacht moet zijn voor
de fundamentele problemen in het hier en nu, zijn zij van mening dat de overheid een
verantwoordelijkheid heeft om alle risico’s af te wegen. In dat licht vragen deze
leden het kabinet om op de existentiële risico’s te reflecteren en om dit in de visie
te verwerken.
Uit de Scan Generatieve AI van het Rathenau Instituut blijkt dat het huidige beleid
de risico’s op het gebied van non-discriminatie, mededinging, arbeidsomstandigheden,
veiligheid en desinformatie onvoldoende adresseert. Daarnaast concludeert het Rathenau
Instituut dat generatieve AI-systemen invloed hebben op de sociale, cognitieve en
culturele ontwikkeling van mensen. De leden van de Volt-fractie vragen het kabinet
in hoeverre zij zich in deze conclusies herkent en of het kabinet zich verantwoordelijk
en geschikt acht om deze risico’s te verminderen en welke maatregelen zij voorstelt
om deze risico’s te verminderen.
Omdat de ontwikkelingen op het gebied van generatieve AI ontzettend snel gaan, is
het van belang dat er ook snel ingegrepen kan worden op het moment dat er ontwikkelingen
zijn die te grote risico’s meebrengen. In die zin begrijpen de leden van de Volt-fractie
de wens om na te denken over een «Rapid Response Team», maar willen zij het kabinet
wel vragen om nader toe te lichten wat «ingrijpen» precies inhoudt en hoe dit zich
verhoudt tot het huidige stelsel van toezicht en handhaving. Wordt een dergelijk team
bijvoorbeeld wettelijk verankerd?
II Antwoord / Reactie van de bewindspersoon
Ondertekenaars
-
Eerste ondertekenaar
B.C. Kathmann, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
S.R. Muller, adjunct-griffier
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.