Antwoord schriftelijke vragen : Antwoord op vragen van het lid Leijten over de zorgen van honderden techprominenten over de ontwikkelingen op het gebied van kunstmatige intelligentie (AI)
Vragen van het lid Leijten (SP) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over de zorgen van honderden techprominenten over de ontwikkelingen op het gebied van kunstmatige intelligentie (ingezonden 30 maart 2023).
Antwoord van Staatssecretaris Van Huffelen (Binnenlandse Zaken en Koninkrijksrelaties)
mede namens de Minister van Economische Zaken en Klimaat (ontvangen 27 juni 2023).
Vraag 1
Herkent en erkent u de kritiek van honderden techprominenten dat er onvoldoende oog
is voor de mogelijke maatschappelijke ontwrichtende effecten die kunstmatige intelligentie
toepassingen met zich mee brengen? Kunt u uw antwoord uitgebreid toelichten?1
Antwoord 1
Het is uiteraard belangrijk dat er aandacht is voor de impact die de inzet van (krachtige)
AI-systemen op onze samenleving kan hebben. Het afgelopen half jaar heeft de aandacht
voor met name generatieve AI-systemen daarbij een enorme vlucht genomen.
Enerzijds maakt het karakter van deze technologie het mogelijk om als zeer geavanceerd
hulpmiddel taken uit handen te nemen of te vergemakkelijken en bij te dragen aan maatschappelijke
opgaven, anderzijds heeft het de potentie om bij te dragen aan desinformatie of manipulatie.
Deze ongewenste, en in sommige gevallen potentieel ontwrichtende, effecten zijn zorgwekkend.
Het tempo waarin deze technologie zich ontwikkelt brengt daarnaast onzekerheden met
zich mee en daarbij bestaan er nog vraagtekens.
De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) schrijft in haar rapport
«opgave AI» dat effecten van (nieuwe) AI op publieke waarden niet vooraf te voorspellen
zijn.2 Het is daarom belangrijk dat er in de maatschappij een continu debat gevoerd wordt
en dat de overheid structureel signalen uit de samenleving ophaalt en uitgaat van
een lerende aanpak. Momenteel wordt er daarom gewerkt aan het ontwikkelen van een
visie op generatieve AI, naar aanleiding van een motie van de leden Dekker-Abdulaziz
en Rajkowski.3 Ik informeer uw Kamer nog voor de zomer over de vorderingen. Deze visie zal open
tot stand komen en zullen burgers, bedrijven en overheden actief worden gevraagd om
bij te dragen aan dit traject.
Tegelijkertijd zet het kabinet zich in om de reeds bekende risico’s van AI te adresseren,
in de eerste plaats via regulering. Naast al bestaande voor AI relevante wet- en regelgeving
(zoals de AVG en de Grondwet) richt de Europese AI-verordening – die op dit moment
nog in onderhandeling is – zich specifiek op een aanscherping van het reguleren van
AI-systemen in de Europese Unie. De AI-verordening is productwetgeving, opdat AI systemen
pas op de markt komen als aan de eisen van de verordening is voldaan. In de concept
AI-verordening4 zijn AI-systemen onderverdeeld in verschillende categorieën. Afhankelijk van de categorie
waarin een AI-systeem valt, gelden zwaardere of minder zware eisen. Het merendeel
van de eisen geldt voor AI-systemen met hoge risico’s voor gezondheid, veiligheid
en mensenrechten.
Daarnaast blijft het kabinet zich inzetten op het stimuleren van mensgerichte AI.
Dit gebeurt onder andere door te investeren in de ontwikkeling van oplossingen voor
verantwoorde en veilige AI via onder meer de ELSA-labs5 en het ROBUST-programma.6 Naast het weren van negatieve AI-toepassingen, moeten we positieve AI-toepassingen
blijven omarmen.
Vraag 2
Bent u het eens met de stelling dat de maatschappelijke vraagstukken die voortkomen
uit de toepassing van kunstmatige intelligentie niet bepaald moeten worden door techbedrijven
maar een maatschappelijk en politiek debat verdienen? Vindt u dit maatschappelijke
en politieke debat tot op heden voldoende gevoerd? Kunt u uw antwoord uitgebreid toelichten?
Antwoord 2
Ja, ik kan mij vinden in de stelling dat maatschappelijke vraagstukken die voortkomen
uit AI-toepassingen een brede maatschappelijke dialoog verdienen. Daarbij onderstreep
ik dat het debat zowel maatschappelijk als politiek hierover momenteel op veel verschillende
manieren wordt gevoerd.
Door de recente ontwikkelingen op het gebied van AI is de aandacht voor AI in het
publieke debat sterk toegenomen. Dit is bijvoorbeeld merkbaar aan de grote (social)
media-aandacht voor het onderwerp. Het maatschappelijk debat over de impact van AI
op onze samenleving wordt echter al langere tijd gevoerd. Hierbij is aandacht voor
zowel de enorme kansen die met een technologie als AI gemoeid gaan, alsook de risico’s.
Zo is er afgelopen jaren veel aandacht geweest voor onderwerpen als transparantie,
bias en het belang van menselijk toezicht op AI. Deze signalen zijn actief meegenomen
in het nationale AI-beleid.
Om zicht te houden op nieuwe maatschappelijke vraagstukken en risico’s van AI is het
van groot belang het gesprek hierover met verschillende partijen te blijven voeren.
Deze maatschappelijke dialoog staat ook centraal bij het in 2023 komen tot een (kabinets)visie
op generatieve AI, waarbij een stevig maatschappelijk debat over de maatschappelijke
impact van (generatieve) AI met burgers, overheden en bedrijven zal worden gevoerd
en als belangrijke input fungeert.
Hier ligt ook een brede en gedeelde verantwoordelijkheid, ook bij aanbieders en gebruikers
van AI, wetenschappers, onderwijsinstellingen, burgers en overheden. En daar zet het
kabinet zich vol voor in, bijvoorbeeld via de Nederlandse AI Coalitie. Via dit publiek-private
samenwerkingsverband werken overheid, bedrijfsleven, onderwijs- en onderzoeksinstellingen
en maatschappelijke organisaties in gezamenlijkheid aan maatschappelijk verantwoorde
AI-toepassingen.
Daarnaast is de (aankomende) AI-verordening een directe reactie op de in de maatschappij
gesignaleerde risico’s. De Europese Unie pakt met deze verordening de regie rondom
de maatschappelijke vraagstukken rondom AI. Dit geldt ook voor een aantal andere Europese
wetten, zoals de Digital Markets Act en de Digital Services Act. Bedrijven mogen alleen
(digitale) producten en diensten leveren op de Europese markt als deze veilig zijn
en mensenrechten respecteren.
Vraag 3
Kunt u de concrete uitwerking van het waardenkader sturen, naar aanleiding van aangenomen
motie Leijten en Ceder? Zo nee, wanneer kan de Kamer deze concrete uitwerking verwachten?7
Antwoord 3
Met uw Kamer deel ik de behoefte aan één duidelijk waardenkader dat toegepast kan
worden in digitalisering in alle sectoren. Tegelijkertijd constateer ik dat er al
meerdere waardenkaders zijn die tegelijkertijd gelden. Zo zijn de waarden die wij
als maatschappij van fundamenteel belang achten vastgelegd in de Grondwet. Hierbij
valt te denken aan non-discriminatie, privacy en vrijheid van meningsuiting. De bescherming
van deze waarden is uitgewerkt in wetgeving. De AVG ziet bijvoorbeeld toe op de bescherming
van persoonsgegevens. Op basis van deze wet- en regelgeving zijn er diverse handreikingen
opgesteld om organisaties te helpen deze waarden ook in de praktijk te beschermen.
Voorbeeld hiervan zijn de Impact Assessment Mensenrechten Algoritmen (IAMA),8 de handreiking non-discriminatie by design en de Code Goed Digitaal Openbaar Bestuur
(CODIO)9.
Welke publieke waarden een rol spelen in concrete situaties is (mede) afhankelijk
van de sector en het specifieke geval. Zo is de hierboven genoemde CODIO voor digitalisering
in het openbaar bestuur opgebouwd als een bouwwerk dat bestaat uit drie fundamenten:
(1) democratie, (2) rechtstaat en (3) bestuurskracht; zes principes: (1) participatie,
(2) maatschappelijke waarde, (3) mensenrechten, (4) procedurele rechtvaardigheid,
(5) bestuurskwaliteit en (6) verantwoordelijkheid; en 30 specifieke waarden. De code
biedt een rijkheid aan waarden maar ook drie heldere ankerpunten: democratie, rechtstaat
en bestuurskracht. De vraag die in het openbaar bestuur wordt gesteld ziet minder
op een aanvullend waardenkader dan op handreiking bij de toepassing van alle bestaande
kaders. Daarom ontwikkel ik bijvoorbeeld een implementatiekader «verantwoorde inzet
van algoritmes» met daarin alle verplichte en aanbevolen onderdelen waarmee rekening
moet worden gehouden bij het ontwikkelen en inzetten van algoritmes.
Tegelijkertijd heb ook ik de behoefte om de bestaande waardenkaders in samenhang te
beschouwen en te verbinden. In de brief over het implementatiekader, die u nog voor
de zomer van mij ontvangt, zal ik aangeven hoe we daartoe willen komen.
Vraag 4
Kunt u zich vinden in de oproep van de techprominenten om een pauze in te lassen met
betrekking tot het gebruik van vergaande kunstmatige intelligentie en kunt u in uw
antwoord betrekken hoe zich dit verhoudt tot het normenkader dat moet worden opgesteld
door de Autoriteit Persoonsgegevens en dat nog niet ontwikkeld is?
Antwoord 4
Ik herken zorgen die genoemd worden in de oproep van techprominenten en het is goed
dat zij daarvoor aandacht vragen.
De oproep richt zich echter in grote mate op toekomstige ontwikkelingen, terwijl we
nu al impact zien van generatieve AI. Daarbij gaat het bijvoorbeeld om desinformatie
en gevolgen voor het onderwijs. Deze gevolgen worden niet opgelost met een pauze.
Het is daarom van belang om ook nu al actie te nemen.
Op de korte termijn werkt het kabinet aan adresseren van die gevolgen.10 Het kabinet werkt ook aan een integrale visie op generatieve AI naar aanleiding
van een motie11 van uw Kamer.
Daarnaast is de oproep een steun in de rug voor de Nederlandse en Europese aanpak
om tot mensgerichte AI te komen. Zoals in antwoord 1 beschreven, investeren we in
het veiliger kunnen maken van AI-systemen en stellen gaan we via de AI-verordening
eisen stellen om deze veiligheid te waarborgen.
In Nederland werken we ook aan het versterken van toezicht op algoritmes en AI. Diverse
toezichthouders hebben met AI en algoritmes te maken. De DCA bij de AP richt zich
vanaf januari 2023, conform de doelen in de inrichtingsnota algoritmetoezichthouder,
op het komen tot gezamenlijke en sectoroverstijgende normuitleg.12 Bijvoorbeeld over transparantieverplichtingen in wet- en regelgeving. Ook faciliteert
de AP het gezamenlijk uitleggen van juridische normen en kaders op het gebied van
algoritmes en AI. Dit moet bijdragen aan het scheppen van duidelijkheid aan ondertoezichtgestelden
– bijvoorbeeld bedrijven of overheden – over hoe en aan welke normen zij moeten voldoen
als het gaat om de (verantwoorde) inzet van AI. Naast deze inspanningen van de DCA
zal het kabinet het toezicht op basis van de AI verordening vormgeven zodra deze definitief
tot stand is gekomen. Bij de voorbereiding, die nu al loopt zijn diverse toezichthouders
betrokken.
Vraag 5
Kunt u aangeven welke adviescolleges, instanties of andere gremia de overheid en bestuurders
adviseren over de ethische aspecten van het gebruik van kunstmatige intelligentie
en nieuwe digitale toepassingen?
Antwoord 5
Bij de ontwikkeling en het gebruik van AI en nieuwe digitale toepassingen wint de
overheid advies in over de ethische aspecten van een breed scala aan organisaties,
bedrijven en personen, waaronder de wetenschap en het maatschappelijk middenveld.
Recente voorbeelden daarvan zijn onderzoeken van het Rathenau Instituut en de WRR.
Deze organisaties worden ook betrokken bij het opstellen van de kabinetsvisie op generatieve
AI.
Onderdelen van de rijksoverheid en andere (mede-)overheden hebben daarnaast ook zelf
adviesorganen voor de ethische aspecten van het gebruik van AI en digitale toepassingen.
Voorbeelden daarvan zijn de Commissie Data Ethiek van het UWV en de Adviescommissie
Analytics bij het Ministerie van Financiën en ethische commissies bij gemeenten en
provincies.
Ondertekenaars
-
Eerste ondertekenaar
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties -
Mede namens
M.A.M. Adriaansens, minister van Economische Zaken en Klimaat
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.