Inbreng verslag schriftelijk overleg : inbreng verslag van een schriftelijk inzake Fiche: Verordening betreffende Kunstmatige Intelligentie (Kamerstuk 22112-3129)
2021D32896 INBRENG VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
Binnen de vaste commissie voor Digitale Zaken hebben enkele fracties de behoefte om
enkele vragen en opmerkingen voor te leggen aan de Staatssecretaris van Economische
Zaken en Klimaat over het fiche: Verordening betreffende Kunstmatige Intelligentie
(Kamerstuk 22 112, nr. 3129) en het fiche: Mededeling Bevorderen Europese aanpak inzake Kunstmatige Intelligentie
(Kamerstuk 22 112, nr. 3128).
De fungerend voorzitter van de commissie, Leijten
De adjunct-griffier van de commissie, Van Tilburg
Inhoudsopgave
blz.
I
Vragen en opmerkingen vanuit de fracties
2
Vragen en opmerkingen van de leden van de VVD-fractie
2
Vragen en opmerkingen van de leden van de D66-fractie
4
Vragen en opmerkingen van de leden van de PVV-fractie
7
Vragen en opmerkingen van de leden van de CDA-fractie
8
Vragen en opmerkingen van de leden van de SP-fractie
10
Vragen en opmerkingen van de leden van de GroenLinks-fractie
12
Vragen en opmerkingen van de leden van de Volt-fractie
14
I Vragen en opmerkingen vanuit de fracties
Vragen en opmerkingen van de leden van de VVD-fractie
De leden van de VVD-fractie hebben met interesse kennisgenomen van de voorliggende
verordening inzake kunstmatige intelligentie en deze leden hebben daarover nog enkele
vragen en opmerkingen. Deze leden sluiten zich overigens aan bij de vragen van het
kabinet aan de Europese Commissie.
De leden van de VVD-fractie zijn verheugd te lezen dat het voorstel is gebaseerd op
de waarden en grondrechten van de Europese Unie (EU) en dat het tot doel heeft mensen
en andere gebruikers het vertrouwen te geven om op Artificiële Intelligentie (AI)
gebaseerde oplossingen te omarmen en bedrijven aan te moedigen deze te ontwikkelen.
Terecht wordt gesteld dat AI een instrument moet zijn voor mensen en de positieve
kracht in de samenleving met als uiteindelijk doel het menselijk welbevinden te vergroten.
Deze leden achten het noodzakelijk dat op gebied van AI een stevige Europese positie
wordt verworven.
Er zijn vier categorieën AI-systemen. Wat is het verschil tussen enerzijds AI-systemen
met een hoog risico en een ex ante conformiteitsbeoordeling en anderzijds AI-systemen
waarvoor bepaalde transparantieverplichtingen gelden? Kan dat verschil wel zo worden
gemaakt? Deze leden krijgen graag een reactie op deze vragen.
De leden van de VVD-fractie lezen dat het voorstel inzake AI-systemen van toepassing
zal zijn op AI-systemen die in de EU op de markt worden gebracht of in gebruik worden
genomen in uiteenlopende sectoren. Hoe verhoudt de reikwijdte van deze verordening
zich tot de gehanteerde definitie van de Europese Commissie? Op basis van welke criteria
valt een AI-systeem wel of niet binnen deze verordening? Hoe verhoudt de in deze verordening
gehanteerde definitie van AI zich tot de huidige gehanteerde (wetenschappelijke) definitie
van AI? Wat voor implicaties heeft deze definitie voor de inzet van AI in Europa?
De leden van de VVD-fractie lezen tevens dat dit voorstel aanvullende (administratieve)
verplichtingen stelt aan providers van AI-systemen zoals documentatievereisten en
inschrijving in een Europese database voor aanbieders van hoog-risico AI-systemen.
Deze leden zijn zich vanzelfsprekend bewust van de noodzaak om eisen te stellen aan
de providers van AI-systemen om ze zo veilig mogelijk te kunnen inzetten. Echter,
het is voor deze leden onduidelijk welke regeldruk hiermee op ondernemers en in het
bijzonder op ondernemers in het midden- en kleinbedrijf (mkb) afkomt. Deelt het kabinet
de mening dat de inzet bij dit voorstel zo min mogelijk extra regeldruk moet zijn
voor (kleine) ondernemers? Hoe beoordeelt het kabinet de verplichtingen die bij dit
voorstel komen kijken voor bedrijven en ondernemers? Hoe beoordeelt het kabinet de
proportionaliteit van deze verplichtingen die worden aangegaan ten opzichte mkb-bedrijven?
De leden van de VVD-fractie lezen voorts dat providers van AI-systemen de naleving
van aanvullende verplichtingen aan moeten tonen door een ex ante conformiteitsbeoordeling.
Ervan uitgaande dat dit eveneens geldt voor providers van huidige (bestaande) AI-systemen,
hoe wordt deze conformiteitsbeoordeling uitgevoerd? Heeft dit enige gevolgen voor
de continuïteit van de bedrijfsprocessen van providers van AI-systemen? Wat is de
termijn van het uitvoeren van een conformiteitsbeoordeling? Deelt het kabinet de mening
dat dergelijke conformiteitsbeoordelingen bedrijfsprocessen zo min mogelijk moeten
beperken en daarmee onze digitale innovatieve economieën en concurrentiepositie niet
onnodig mogen schaden?
De leden van de VVD-fractie constateren dat bij iedere «substantiële» verandering
aan het AI-systeem na introductie op de markt of ingebruikname, een nieuwe conformiteitsbeoordeling
moet worden uitgevoerd. Met het oog op het voorkomen van onnodige beoordelingen, kan
het kabinet ophelderen welke aanpassingen vallen onder substantiële veranderingen
en welke niet? Te lezen valt dat er enige ruimte blijft voor nationale lidstaten om
maatwerk te leveren bij handhavingstaken en andere bevoegdheden. Dat stemt deze leden
tevreden en tegelijkertijd ontstaat de zorg hoe een gelijk speelveld bewerkstelligd
kan worden. Kan het kabinet ophelderen hoe zij hiernaar kijkt?
De leden van de VVD-fractie concluderen dat elke lidstaat een nationale toezichthouder
dient aan te wijzen die verantwoordelijk is voor het toezicht op de verordening in
algemene zin. Deze leden lezen tevens dat lidstaten sectorspecifieke toezichthouders
moeten aanwijzen. Er bestaat bij deze leden enige onduidelijkheid over de taken van
de nationale toezichthouder en die van sectorspecifieke toezichthouders. Hoe verhouden
de nieuwe bepalingen in het kader van toezicht zich tot het huidige toezichtskader?
In hoeverre wordt hierbij rekening gehouden met de eventuele overlap aan toezichtstaken?
Hoe verhouden de taken en bevoegdheden van sectorspecifieke toezichthouders zich tot
die van de nationale toezichthouder? Deelt het kabinet de mening dat ter voorkoming
van toezichtshiaten en fragmentatie van beleid, het wenselijk kan zijn om met één
nationale centrale toezichthouder te werken? Zo ja, welke toezichthouder heeft het
kabinet voor ogen en hoe wordt geborgd dat de toezichthouder(s) over de juiste middelen,
capaciteit en kennis beschikt? Zo nee, waarom niet?
De leden van de VVD-fractie lezen eveneens dat toezichthouders de mogelijkheid krijgen
om gebruikte datasets, die providers van hoog-risico AI-systemen moeten produceren,
in te zien. Op welke wijze wordt bij uitvoering van deze verplichting voldaan aan
de Algemene Verordening Gegevensbescherming (AVG)?
De leden van de VVD-fractie achten het positief dat voor kleine organisaties en bedrijven
(mkb) een uitzonderingspositie wordt beoogd met het invoeren van experimenteerruimtes
(regulatory sandboxes) om de AI-systemen te testen voordat ze in gebruik worden genomen.
Hoe verhouden deze regulatory sandboxes zich tot de reguliere conformiteitsbeoordelingen
en in het bijzonder in het kader van de nalevingskosten? Kan worden toegelicht of
het hier alleen om mkb-bedrijven gaat? Welke reikwijdte geldt hier?
De leden van de VVD-fractie maken zich zorgen om de grootte van de nalevingskosten
voor bedrijven en dan in het bijzonder mkb-bedrijven. Deze leden lezen immers dat
de Europese Commissie de kosten van naleving voor de ontwikkelaars van hoog-risico
AI-systemen schat op ongeveer 10.000 euro. Op basis waarvan is deze schatting gemaakt?
Welke analyse ligt ten grondslag aan deze schatting? Wordt het bedrag gebaseerd op
het soort AI-systeem of op het soort bedrijf? Aangezien het nog onduidelijk is met
welke kosten verschillende soorten uiteindelijk te maken krijgen, krijgen deze leden
hier graag opheldering over. Deze leden willen benadrukken dat hoge nalevingskosten
met name voor mkb-bedrijven problematisch kunnen zijn. Deelt het kabinet deze zorgen
en is het kabinet bereidt deze zorgen mee te nemen in de onderhandelingen? Zo nee,
waarom niet?
Door de ontwikkeling van machine learning neemt de intelligentie van algoritmes toe.
De leden van de VVD-fractie vinden het belangrijk dat wanneer slimme algoritmes, bijvoorbeeld
gebruikt bij «unsupervised learning», een (steeds grotere) rol krijgen binnen besluitvormende
publieke processen, de menselijke maat steeds bewuster geborgd moet worden. Deelt
het kabinet deze mening en kan het kabinet toelichten of en hoe deze verordening borgt
dat het in de praktijk mogelijk is voor iemand om inzicht te krijgen in dit proces
om te beoordelen of een uitkomst rechtmatig is? Deelt het kabinet de mening dat het
van belang is dat lidstaten enige zeggenschap hebben in het aanmerken van hoog-risico
AI-Systemen? Zo ja, kan het kabinet dit meenemen in de onderhandelingen? Zo nee, waarom
niet? Deelt het kabinet de mening dat deepfake-technologie een risico kan zijn voor
onze democratische rechtstaat? Zo ja, is het kabinet bereid om in de onderhandelingen
mee te nemen dat deze technologie op de lijst van hoog-risico-systeem geplaatst zou
moeten worden? Zo nee, waarom niet?
De leden van de VVD-fractie vragen hoe het kabinet ervoor zorgt dat er binnen de rijksoverheid
voldoende kennis en capaciteit is om op verantwoorde wijze om te gaan met de verschillende
soorten AI-systemen. De Europese Commissie stelt voor om elk jaar te beoordelen of
de lijst met hoog-risico AI-systemen moet worden aangepast. Welke bevoegdheden heeft
de Europese Commissie om die lijst aan te passen. Welke zeggenschap hebben de lidstaten
daarbij? Wat is de rol van de parlementen daarbij? Deze leden krijgen graag een verduidelijking
van deze procedure. Deze leden ontvangen ook graag een verduidelijking van het volgende.
In welke situaties/onderdelen van de verordening is er sprake van delegatie en in
welke situatie van uitvoeringshandelingen?
De leden van de VVD-fractie vragen tot slot hoe het verdere proces met betrekking
tot de onderhavige verordening eruitziet.
Vragen en opmerkingen van de leden van de D66-fractie
De leden van de D66-fractie hebben kennisgenomen van de fiches met betrekking tot
het voorstel voor een Kunstmatige Intelligentie (AI)-verordening en hebben hier nog
een groot aantal vragen over. AI heeft nu al een enorme impact op onze maatschappij,
rechtstaat, democratie, economie, zorg, veiligheid en innovatievermogen. AI gaat een
grote rol spelen bij de grote uitdagingen van deze tijd, met AI kunnen we bijvoorbeeld
straks beter de klimaatcrises te lijf, of kankercellen makkelijker detecteren. Maar
er zit ook een schaduwzijde aan deze vooruitgang zoals het schenden van fundamentele
rechten en publieke waarden, ongelijke behandeling en massasurveillance. Deze leden
beamen de uitspraak van Eurocommissaris Vestager over de nieuwe AI-verordening dat
hoe groter de risico’s zijn, des te strenger de regels moeten worden. Voor deze leden
staat het beschermen van fundamentele rechten, het stimuleren van innovatie én het
als EU wereldwijd als allereerste de toonzetten op het gebied van regulering van AI
centraal.
De leden van de D66-fractie delen de mening van het kabinet dat de verordening veel
verduidelijking behoeft en zullen hier dan ook meerdere keren naar vragen. Deze leden
merken daarnaast op dat de focus van de fiches voornamelijk op de economische effecten
zijn van de AI-verordening.
Ethische richtlijnen
De leden van de D66-fractie horen graag van het kabinet of zij van mening is dat de
ethische richtlijnen van de High-Level Expert Group on AI voldoende zijn overgenomen
in het huidige voorstel. Zo nee, welke onderdelen uit de ethische richtlijnen zijn
onvoldoende meegenomen in de verordening die het kabinet wel had willen terugzien?
Subliminale beïnvloeding en schade
Wat wordt er verstaan onder subliminale technieken, hoe ver reikt dit? En waarom is
politieke microtargeting op basis van AI uitgezonderd? De verordening hanteert een
schade principe, echter komt schade niet alleen in persoonlijke vorm voor, maar ook
op maatschappelijke schaal, wordt dit ook meegenomen? Is het kabinet van mening dat
misleiding niet moet worden toegestaan, ook niet als er niet meteen directe persoonlijke
schade kan worden aangetoond? Wie is verantwoordelijk voor de bewijslast? Hoe beoordeelt
het kabinet deze keuze? Vindt het kabinet dat er genoeg aandacht is voor toetsen op
basis van daadwerkelijk effect in plaats van enkel beoogd gebruik?
Kwetsbaren
Deelt het kabinet de mening dat de groep kwetsbaren genoemd in artikel 5b van de verordening
veel verder zou moeten reiken dan enkel kinderen en mensen met een beperking? Met
name omdat er veel andere groepen ook het recht hebben op een gelijke behandeling,
of disproportioneel slachtoffer zijn van fysieke of psychologische schade, zoals vrouwen
die, bijvoorbeeld, het vaakst slachtoffer zijn doormiddel van afpersing met deepfake
pornografie? Zo ja, welke groepen ziet het kabinet graag terug in de verordening?
Social scoring
De leden van de D66-fractie delen de noodzaak een verbod op «social scoring» systemen
in de verordening terug te zien en herinneren het kabinet graag aan het eerder door
de Nederlandse rechter verboden fraudeopsporingssysteem SyRi. «Social scoring» heeft
geen plaats in een vrije samenleving en de publieke ruimte. Kan het kabinet uiteenzetten
hoe sterk het verbod hierop wordt geacht door het groot aantal uitzonderingen? Zou
dit moeten worden aangescherpt? Is het kabinet van mening dat dit verbod ook moet
gelden voor private partijen?
Biometrische surveillance
Een van de risico’s die aansluiten bij «social scoring» is het gebruik van biometrische
surveillance / herkenning. De leden van de D66-fractie horen graag waarom er de keuze
is gemaakt voor biometrische identificatie in plaats van biometrische surveillance.
Voorspellingen maken op basis van bepaald gedrag, stemgebruik, hoe iemand loopt, of
iemands emoties vallen nu buiten de boot bij de hoge risico bepalingen. Is het kabinet
van mening dat het begrip van biometrische identificatie moet worden opgerekt om meer
risico’s op surveillance te voorkomen? Zo nee, kan het kabinet een lijst geven van
welke vormen van biometrische surveillance acceptabel worden geacht? Ook is er bij
biometrische identificatie sprake van ruime uitzonderingsgronden die de beperkingen
grotendeels tenietdoen. Binnen Nederland hebben we eerder gezien dat de politie gebruik
maakte van gezichtsherkenning, ook als daar geen wettelijke basis voor bestond, omdat
de toegang tot deze technologie wel bestond. Deze leden horen graag van het kabinet
of biometrische identificatie in de publieke ruimte überhaupt wenselijk moet worden
geacht. Is het kabinet van mening dat de uitzonderingsgronden te algemeen en te breed
zijn? Deelt het kabinet de zorgen van deze leden dat het enkel verbieden van «real-time»
analyse tekortschiet als definitie, nu dit niet duidelijk analyse na een zeer kort
tijdsbestek in de wegstaat? Hoe staat het kabinet ten aanzien van het gebruik van
biometrische identificatie door private partijen? Hoe staan andere lidstaten hiertegenover?
Transparantie
Een van de belangrijkste onderdelen om ongelijke behandeling, discriminatie en het
schenden van de algemene beginselen van behoorlijk bestuur te voorkomen in de verordening
is de transparantieplicht om de interpretatie van de uit AI-systemen volgende beslissingen
mogelijk te maken. Als besluitvorming geautomatiseerd wordt kan dit rechtsongelijke
en persoonsafhankelijke oordelen voorkomen, maar neemt het risico tot onacceptabele
vormen van ongelijkheid toe omdat besluitvormingsprocessen niet langer kunnen worden
getoetst op discriminatie of andere verboden inbreuken op mensenrechten.
De leden van de D66-fractie zijn van mening dat de verordening nog te weinig mogelijkheden
biedt om inzicht in AI-systemen te krijgen, waardoor effectieve controle op rechtmatigheid
van beslissingen gehinderd wordt. Is het kabinet van mening dat besluitvorming voldoende
inzichtelijk, uitlegbaar en begrijpelijk wordt met de huidige verordening?
Stimuleren AI voor kleinere bedrijven en ondernemers
De leden van de D66-fractie zijn van mening dat AI-systemen ook enorme voordelen met
zich meebrengen voor maatschappij en het bedrijfsleven. Deze leden horen graag van
het kabinet hoe lang bedrijven hebben, die nu al gebruik maken van AI-systemen, om
te voldoen aan de verordening, bij de inwerkingtreding. Acht het kabinet de implementatietijd
voldoende? De verordening kan ook voor kleinere innovatieve bedrijven grote lasten
met zich meebrengen, terwijl één van de doelen van de AI-verordening het stimuleren
van Europese innovatie op AI-gebied is. Kan het kabinet toelichten op welke wijze
er extra aandacht is voor het stimuleren van ontwikkelingen op het gebied van AI voor
kleine bedrijven binnen de EU en vanuit Nederland?
Definities
De leden van de D66-fractie merken op dat ook binnen het bedrijfsleven veel vragen
bestaan over de reikwijdte en definities binnen de verordening. Kan het kabinet toelichten
of volledige interne AI-processen vallen binnen de definitie van AI-systemen? Zo ja,
acht het kabinet dit wenselijk met het oog op de toenemende regeldruk die bij een
dergelijke definitie komt kijken? Bedrijven hebben een informatieplicht richting klanten
om te informeren over de het gebruik en risico’s van AI-systemen. In hoeverre geldt
deze plicht ook voor de leveranciers van deze systemen?
Toezicht
De leden van de D66-fractie horen graag een nadere toelichting hoe het kabinet het
toezicht van de verordening op nationaal niveau voor zich ziet binnen de huidige capaciteiten.
Deze leden horen graag van het kabinet of ze de rol van de Europese Commissie binnen
de toezichthouder «European Artificial Intelligence Board» (EAIB) wenselijk acht met
het oog op onafhankelijk toezicht. Hoe staan andere lidstaten hierin?
Militair gebruik
De leden van de D66-fractie horen graag van het kabinet waarom de Europese Commissie
ervoor heeft gekozen om militair gebruik van AI-systemen uit te zonderen in de verordening.
Acht het kabinet dit wenselijk?
Vragen en opmerkingen van de leden van de PVV-fractie
De leden van de PVV-fractie zijn van mening dat de aard en impact, met name de negatieve
(bij-) effecten, van kunstmatige intelligentie (AI) tot regulering nopen, maar deze
leden zijn tegelijkertijd wel bezorgd dat pogingen daartoe, zeker op Europees niveau,
juist tot meer onduidelijkheid leiden. De reikwijdte van en de definities in de nieuwe
AI-verordening zijn dermate breed en onbepaald, dat een goede analyse en beoordeling
op dit moment uitermate lastig is. Het kabinet erkent dat zelf ook en geeft aan op
diverse punten verduidelijking gevraagd te hebben aan de Europese Commissie. Kan het
kabinet aangeven op welke punten die gevraagde verduidelijking inmiddels is ontvangen?
Mocht dat nog niet het geval zijn geweest, op welke termijn denkt het kabinet die
verduidelijking nog te ontvangen van de Europese Commissie? Is het kabinet bereid
om bij uitblijven van afdoende verduidelijking door de Europese Commissie, een Nederlandse
voortrekkersrol op zich te nemen in de nadere behandeling van deze verordening?
De leden van de PVV-fractie delen de zorgen van het kabinet als het gaat om de benodigde
middelen, capaciteit en expertise bij de verschillende nationale toezichthouders die
deze verordening met zich mee gaat brengen. Zeker gezien het kabinet ook erkent dat
de door de Europese Commissie gehanteerde definitie van AI dusdanig ruim is dat potentieel
alle algoritmische informatiesystemen onder het begrip AI vallen.
De verwachte administratieve lasten kunnen mogelijk fors worden, aldus het kabinet
in haar brief. Het kabinet vindt de schatting die de Europese Commissie maakt van
de verwachte kosten en regeldruk die mkb-bedrijven, startups en kleine organisaties
moeten maken voor de naleving, te laag. De leden van de PVV-fractie delen deze vrees
en horen graag van dit kabinet wat zij van plan is om de administratieve lasten voor
Nederlandse bedrijven zo laag mogelijk te houden en te zijner tijd te verlichten.
Deze leden merken voorts op dat heel veel ondernemers nog altijd worstelen met de
administratieve lasten en kosten die de invoering van de AVG met zich mee heeft gebracht.
Zij maken zich grote zorgen over de gevolgen die een nieuwe golf Europese regelgeving
gaat hebben op de slagkracht en het innovatievermogen van Nederlandse ondernemers.
De leden van de PVV-fractie hebben in dit kader ook grote zorgen over de toezichthouders,
die in de huidige vorm volstrekt niet toegerust zijn om effectief toezicht uit te
oefenen op de naleving van een dergelijk veelomvattende AI-verordening. Deze leden
roepen in herinnering dat tot op heden nog geen stappen zijn genomen door dit kabinet
om de Autoriteit Persoonsgegevens (AP) afdoende middelen te geven om de naleving van
de AVG te kunnen begeleiden. Het is deze leden volstrekt onduidelijk waarom het kabinet
in haar brief aangeeft dat zij zich voorzichtig afvraagt of de door de Europese Commissie
benoemde benodigde bezetting van 1 tot 25 FTE bij de toezichthoudende instantie voldoende
is. Dat klinkt als een enorm understatement. Wat deze leden betreft is een actieplan
voor versterking van met name de AP nu echt urgent; deze leden zouden graag willen
weten welk actieplan dit kabinet klaar heeft liggen om ervoor te zorgen dat het toezicht-systeem
versterkt wordt. Wat deze leden betreft is het onwenselijk om wet- en regelgeving
in te voeren als op voorhand duidelijk is dat er geen toezicht op naleving gehouden
kan worden.
Tot slot zou de leden van de PVV-fractie graag zien dat de het kabinet zich hard maakt
voor een systeem van eenvoudige en effectieve rechtsbescherming voor door AI-systemen
benadeelde burgers.
Vragen en opmerkingen van de leden van de CDA-fractie
De leden van de CDA-fractie hebben met belangstelling kennisgenomen van het fiche
van het kabinet over de verordening kunstmatige intelligentie. Deze leden willen allereerst
het belang onderstrepen van het waarborgen van de fundamentele grond- en mensenrechten
ook in het digitale domein. De Europese verordening is de eerste van haar soort in
de wereld en een eerste poging om kunstmatige intelligentie op grote schaal te reguleren.
Een inzet die deze leden steunen.
De leden van de CDA-fractie willen allereerst opmerken dat zij de opmerkingen en commentaren
van het kabinet begrijpen, maar dat voor hen op verschillende punten nog niet duidelijk
wordt wat het standpunt is van het kabinet ten aanzien van (delen van) de verordening.
Deze leden denken hierbij aan de door de Europese Commissie gekozen reikwijdte van
het begrip kunstmatige intelligentie, de gehanteerde risicobenadering en andere gewenste
verduidelijkingen. Zij vragen het kabinet wat voor hen dan wel voldoet, bijvoorbeeld
wanneer gevraagd wordt om verduidelijking.
De leden van de CDA-fractie merken op dat er in de verordening gekozen is voor specifieke
bescherming van kwetsbare groepen, waarbij de verordening zich beperkt tot twee kwetsbare
groepen. Kinderen en mensen met een beperking worden genoemd. Deze leden vragen of
het zuiver is om enkel deze twee groepen te benoemen. Zij vragen naar de onderliggende
argumentatie voor de keuze om deze twee groepen aan te wijzen als bijzonder kwetsbaar
als het gaat om kunstmatige intelligentie. Deze leden achten voorstelbaar dat er ook
andere groepen benoemd moeten worden en zien in het algemeen dat minderheden sneller
kwetsbaar zijn bij bepaalde toepassingen van kunstmatige intelligentie. Zij vragen
hoe het kabinet dat ziet.
De leden van de CDA-fractie delen de zorgen van zowel kabinet als samenleving dat
de in de verordening gehanteerde definitie van kunstmatige intelligentie dusdanig
ruim is dat potentieel alle algoritmische informatiesystemen onder het begrip AI komen
te vallen. Deze leden vragen het kabinet in hoeverre er gekeken kan worden naar een
definitie die met name ziet op «machine learning» en complexe algoritmes waar het
onduidelijk kan zijn hoe er tot een bepaald besluit is gekomen.
De leden van de CDA-fractie merken op dat de definitie van hoog-risico AI-systemen
niet genoemd wordt in de beoordeling van het voorstel, terwijl dat ook nog de nodige
onduidelijkheid over bestaat. Is deze definitie voor het kabinet voldoende duidelijk
of zal het kabinet in de Europese onderhandelingen hier ook een punt van maken?
De leden van de CDA-fractie willen hun steun uitspreken voor het standpunt van het
kabinet om nieuwe definities als «ingebruikname» vanaf het begin van de onderhandeling
duidelijk uitgewerkt te hebben. Zij refereren daarbij aan de onduidelijkheid die nog
steeds bestaat over wat precies het «verwerken» van gegevens is bij de invoeren van
de AVG. Deze leden vragen daarbij wel of het kabinet een indicatie kan geven over
wat zij een acceptabele definitie vindt.
De leden van de CDA-fractie uiten hun zorgen over de brede formulering van de verboden
en de vele uitzondering op verboden. Verschillende uitzonderingen zijn begrijpelijk
en kunnen op steun rekenen van deze leden. Echter vragen deze leden naar het verbod
op manipulatie en winstgevend maken van kwetsbaarheden die verband houden met iemands
leeftijd, verstandelijke of fysieke beperking dat alleen lijkt te gelden indien er
sprake is van (een grote kans op) schade. Deze leden vragen waarom er niet voor een
algemeen verbod is gekozen en of het kabinet voornemens is daar wel voor te pleiten.
Deze leden lijkt het logisch dat manipulatie en winstgevend maken van kwetsbaarheden
altijd onwenselijk is en daarmee niet toegestaan.
Het verbod op bepaalde systemen en real-time biometrie in de publieke ruimte
De leden van de CDA-fractie zijn positief over het uitgangspunt van een verbod op
real-time biometrische identificatie systemen in de publieke ruimte ten behoeve van
rechtshandhaving. Wel hebben deze leden vragen over wat er precies bedoeld wordt met
«real-time» biometrische identificatie. In dat kader vragen deze leden of het kabinet
zich wil inzetten op het verkrijgen van duidelijkheid op dat punt. Deze leden vragen
het kabinet waarom er niet een verbod op biometrische identificatie aan de hand van
kunstmatige intelligentie in publieke ruimte in het algemeen komt. Deze leden zien
daarnaast in uitzonderlijke gevallen, bijvoorbeeld bij terroristische dreiging of
aanslag, reden om wel gebruik te maken van (real-time) biometrische identificatie,
maar dat dit wel met waarborgen dient te worden omkleed.
Transparantie voor overige AI-systemen
De leden van de CDA-fractie vragen hoe de rol van de burger is geregeld in de verordening
en dan in het bijzonder hoe de burger in staat gesteld zal worden om grip te houden
op welke wijze zij worden onderworpen aan automatische besluitvorming en kunstmatige
intelligentie. Klopt het dat burgers geen mogelijkheden worden gegeven om inzicht
te krijgen in hoe en in welke mate zij onderworpen zijn aan kunstmatige intelligentie
in de verordening, mogelijkheden die de AVG wel biedt op het terrein van eigen persoonsgegevens?
Toezicht en governance
De leden van de CDA-fractie kunnen zich vinden in de vragen en bezwaren van het kabinet
over de wijze waarop het toezicht en de governance is geregeld in de verordening.
Door te kiezen voor een brede reikwijdte en open definities zal er automatisch ook
meer gevraagd worden van het toezicht, zo menen deze leden. Deze leden vragen naar
de consequenties van deze uitgangspositie van het kabinet op dit punt. Ook vragen
deze leden of het kabinet bereid is om in voorbereiding op de verordening actief na
te denken over de wijze waarop het toezicht in Nederland vormgegeven moet gaan worden
en welke capaciteit daar voor nodig is. Het is daarbij van belang dat we niet verrast
worden door mogelijke gevolgen en capaciteitsvragen zoals in het verleden weleens
is gebeurd, zo menen deze leden.
Innovatie en regeldruk
De leden van de CDA-fractie waarderen de aandacht voor een wetgevend kader dat innovatievriendelijk
is, waarbij hoge nalevingskosten worden vermeden en met oog voor het belang van kleine
organisaties en bedrijven, zoals het mkb. Deze leden lezen dat die organisaties en
bedrijven voorrang kunnen krijgen bij experimenteerruimtes, waaronder «regulatory
sandboxes», digitale innovatiehubs en test- en experimenteerfaciliteiten voor AI-systemen.
Is reeds bekend onder welke voorwaarden bijvoorbeeld mkb-bedrijven hier toegang toe
kunnen krijgen? Tijdens de coronacrisis is gebleken dat het voor mkb en starters lastig
is om eigen, doorgaans kostbare Research & Development (R&D) -capaciteit aan te houden.
Zullen kleinere bedrijven straks toegang hebben tot de digital innovation hubs, om
van daaruit samen te werken met de R&D-afdeling van grote(re) bedrijven? Hoe is financiering
hiervan/hiervoor geregeld? Kan het kabinet aangeven hoe het staat met de «infrastructuur»
van eerdergenoemde experimenteerruimtes in Nederland? Zijn er bijvoorbeeld voldoende
test- en experimenteerfaciliteiten, verspreid over het land, waar het mkb op laagdrempelige
wijze AI-systemen kan laten testen, niet alleen de mkb-koplopers maar ook het brede
mkb-peloton? Het kabinet schat in dat regeldruk- en nalevingskosten voor mkb-bedrijven,
startups en kleine organisaties in de praktijk hoger zullen uitvallen, met mogelijk
een rem op innovatie tot gevolg. Hoe gaat het kabinet zich er concreet voor inzetten
dat administratieve verplichtingen «zo lastenluw en effectief mogelijk» worden vormgegeven,
zowel in Nederland als in Europees verband?
Consumentenbescherming
Consumentenorganisaties wijzen erop dat de verordening geen specifieke consumentenrechten
bevat, om consumenten te beschermen tegen de risico’s van AI. Als voorbeelden worden
genoemd het ontbreken van een recht op transparantie, een recht op uitleg, een recht
om een algoritmisch besluit aan te vechten of een het recht om een klacht in te dienen
bij een vermoedelijke inbreuk. Hoe kijkt het kabinet hier tegenaan? Biedt de huidige
wetgeving consumenten voldoende bescherming ten aanzien van AI? Kan dit worden geïllustreerd
met voorbeelden?
Vragen en opmerkingen van de leden van de SP-fractie
De leden van de SP-fractie hebben kennisgenomen van de fiches over kunstmatige intelligentie
en hebben hierover nog enkele vragen en opmerkingen. Kunstmatige intelligentie is
niet inherent slecht of goed en biedt kansen, maar ook hele grote uitdagingen. Dat
betekent dat regulatie noodzakelijk is. De leden van SP-fractie vragen wel waarom
er veel bevoegdheden bij de Europese Commissie worden belegd, waaronder een grote
rol in het toezicht. Deze leden achten dit ondemocratisch en onwenselijk. Kan het
kabinet in gaan op de wenselijkheid van zo’n grote rol van de Europese Commissie?
De leden van de SP-fractie maken zich onder andere grote zorgen over profilering,
ratingsystemen (publiek én privaat) en grove privacy-schendingen. Een van de grootste
uitdagingen op het gebied van kunstmatige intelligentie is hoe bijvoorbeeld de menselijke
waardigheid beschermd kan blijven. Hoe kijkt het kabinet hiertegen aan? Is het kabinet
bereid een ethische commissie in te stellen die hier bijvoorbeeld advies over uit
kan brengen? Zo nee, waarom niet?
Biometrische identificatie
De leden van de SP-fractie lezen dat systemen voor voorspellend politiewerk en gezichtsherkenning
deels aan banden worden gelegd. In hoeverre valt de huidige Nederlandse politiepraktijk
hieronder? Wat is de inzet van het kabinet als het gaat om biometrische herkenningssystemen
op grote schaal? Pleit het kabinet voor een totaalverbod, zowel in de publieke als
de private sector en zo nee, waarom niet? Kan het kabinet ook ingaan op waarom emotieherkenningsystemen
niet onder de regels vallen en wat het standpunt van het kabinet over deze systemen
is? Vindt het kabinet het bijvoorbeeld wenselijk als bedrijven gebruik kunnen maken
van technologieën in huiskamers, waarmee emoties worden herkend, om zo het aanbod
van deze bedrijven beter af te stemmen? Deelt het kabinet de mening dat dit en soortgelijke
systemen per definitie een veel te grote inbreuk zijn op de privacy bijvoorbeeld?
Zo nee, waarom niet?
Sociale Ratingsystemen
De leden van de SP-fractie hebben grote twijfels bij het gebruik van ratingsystemen.
Hoewel er tegenwoordig voor zo ongeveer elke online-klik om feedback gevraagd wordt,
kan het leiden tot uitsluiting en bijvoorbeeld onterechte ontslagen. Deze leden steunen
daarom van harte een verbod op ratingsystemen. De vraag is echter wel waarom dit alleen
voor de publieke sector geldt. Waarom mag een groot bedrijf als Uber bijvoorbeeld
zowel zijn chauffeurs als zijn klanten laten raten? Ziet het kabinet ook ethische
bezwaren en zo ja, wat gaan zij hierop ondernemen? In hoeverre spelen de argumenten
voor een vrije (Europese) markt in deze discussie een rol volgens het kabinet? Hoe
reflecteert het kabinet hierop?
Dodelijke autonome wapens
De leden van de SP-fractie betreuren dat er niet gesproken wordt over dodelijke autonome
wapens. In hoeverre heeft dat volgens het kabinet te maken met de instelling van een
Europees defensiefonds, waarbij er geïnvesteerd wordt in het ontwikkelen van autonome
wapens? Deze leden vragen naar wat het kabinet verstaat onder betekenisvolle menselijke
controle als maatstaf voor dit soort wapens. Is het kabinet alsnog bereid om te pleiten
voor een volledig verbod op zogenaamde LAWS (Lethal Autonomous Weapons Systems)? Zo
nee, waarom niet?
Handhaving
Het is voor de leden van de SP-fractie geen verrassing dat aanbieders van hoog-risico
soft- en hardware zelf verantwoordelijk worden gemaakt voor kwaliteitstoetsing. De
zelfregulatiezucht is echter bij systemen die zo ontzettend veel risico’s met zich
meebrengen volgens deze leden volstrekt onvoldoende. Hoe ziet het kabinet dit?
De overheid heeft een belangrijke taak om te voorkomen dat bij het invoeren van kunstmatige
intelligentie de menselijke waardigheid niet geborgd is en er bijvoorbeeld op basis
van onjuiste data ingrijpende beslissingen worden genomen. Acht het kabinet zich voldoende
in staat deze essentiële taak uit te voeren en te handhaven? Hoe staat het inmiddels
met de uitvoering van de motie-Marijnissen c.s. (Kamerstuk 35 510, nr. 21)?
Vragen en opmerkingen van de leden van de GroenLinks-fractie
De leden van de GroenLinks-fractie zijn blij met het verschijnen van de verordening
betreffende kunstmatige intelligentie, die deze leden zien als een belangrijke stap
richting effectieve regulering van het snel toenemende aantal toepassingen dat hier
gebruik van maakt. Zij hebben echter nog vragen over de details.
De leden van de GroenLinks-fractie vinden de verbodsbepaling, onder artikel 5, onduidelijk
geformuleerd. Wat wordt bedoeld met subliminale technieken en het wezenlijk verstoren
van gedrag en waarom zijn deze enkel verboden wanneer dit waarschijnlijk zal leiden
tot directe fysieke of psychologische schade aan individuele personen? Ligt de bewijslast
om dit aan te tonen exclusief bij de betroffen individuen? Erkent het kabinet dat
manipulatie via AI-systemen ook ernstige maatschappelijke gevolgen kan hebben, ook
wanneer directe fysieke of psychologische schade aan individuen niet aantoonbaar is?
Is het kabinet bereid om zich in te zetten voor een verduidelijking en verbreding
van de verbodsbepaling op dit punt? Is het kabinet van mening dat aanbevelingsalgoritmen
die nepnieuws en schokkende of extreme content promoten om individuele personen langer
op het platform te houden ten einde meer advertenties te laten zien ook een vorm van
subliminale techniek is gericht op het wezenlijk verstoren van het gedrag van personen?
De leden van de GroenLinks-fractie vragen met betrekking tot het verbod op AI-systemen
gericht op sociale scores voor een classificatie van de betrouwbaarheid van natuurlijke
personen, waarom dit alleen zou gaan gelden voor overheidsinstanties, en niet voor
private bedrijven. Is het gebruik van AI-gedreven sociale score systemen door private
bedrijven in potentie niet net zo schadelijk? Wat is de kabinetsinzet op dit vlak?
De leden van de GroenLinks-fractie vragen waarom het verbod op biometrische surveillance
in de openbare ruimte zich beperkt tot real-time identificatie. Wat is de definitie
van real-time? Zou het gebruik van gezichtsherkenningstechnologie op live beelden,
maar met 10 seconden vertraging, dan niet onder dit verbod vallen? Hoe wenselijk is
dat? Daarnaast vragen deze leden waarom het verbod op biometrische surveillance in
de openbare ruimte gelimiteerd is tot surveillance «met het oog op de rechtshandhaving».
Is surveillance in de openbare ruimte met een ander doel of door private partijen
ook niet net zo schadelijk?
De leden van de GroenLinks-fractie maken zich ook zorgen over de uitzonderingsruimte
van het verbod die wordt geboden in Artikel 5 (d). Met deze ruime formulering, zeker
onder lid (iii), vrezen deze leden dat er alsnog veelvuldig gebruik kan worden gemaakt
van biometrische surveillance in de openbare ruimte. Deelt het kabinet deze zorg?
Wat vindt het kabinet verder van de gezamenlijke oproep van de Europese privacy-toezichthouders,
waaronder de Autoriteit Persoonsgegevens, om gezichtsherkenning, stemherkenning en
bewegingsherkenning in de openbare ruimte volledig te verbieden? Is het kabinet bereid
om zich hiervoor in te zetten in Europees verband? Kan het kabinet in deze context
ook een appreciatie geven van de aangehouden motie-Van der Lee c.s. (Kamerstuk 21 501-20, nr. 1706)?
De Europese toezichthouders pleiten daarnaast voor een verbod op AI-systemen die mensen
indelen in groepen op basis van etniciteit, geslacht, seksualiteit of politieke voorkeur,
omdat dit discriminatie in de hand werkt. De leden van de GroenLinks-fractie vragen
of het kabinet dit pleidooi ondersteunt en zich hier in Europees verband voor in wil
zetten. Tenslotte pleiten de Europese toezichthouders ook voor een verbod op alle
vormen van kunstmatige intelligentie voor het herkennen van emoties. Deze leden vragen
of het kabinet dit pleidooi ondersteunt en bereid is om zich in te zetten om dit op
te nemen in de verbodsbepaling van deze verordening.
De leden van de GroenLinks-fractie begrijpen de logica achter de risicogerichte benadering.
Deze leden hebben wel twijfels bij de uitvoering van deze benadering, die is gericht
op sectoren en niet op toepassingen. Wat is het risico dat hoog-risico toepassingen
in sectoren die niet als hoog-risico zijn geclassificeerd, nu zonder noemenswaardige
regelgeving kunnen worden toegepast, met mogelijk ernstige gevolgen van dien?
De leden van de GroenLinks-fractie vragen ook een reflectie op de nadruk die wordt
gelegd in de verordening op de providers, of ontwikkelaars, van AI-systemen. Erkent
het kabinet dat het verkeerd gebruik van een goed ontworpen AI-systeem ook kan leiden
tot de schending van mensenrechten? Zou de conformiteitsbeoordeling dan niet ook moeten
worden vereist voor gebruikers van hoog-risico AI-systemen? Ook is het opmerkelijk
dat personen die aan AI-systemen worden onderworpen amper voorkomen in de verordening.
Is het kabinet bereid zich in te zetten voor duidelijke rechten voor eenieder die
wordt onderworpen aan AI-gedreven systemen, zoals het recht op transparantie, het
recht op uitleg over algoritmische besluiten en het recht om dergelijke besluiten
aan te vechten?
De leden van de GroenLinks-fractie vragen het kabinet ook in te gaan op de centrale
rol van zelfbeoordelingen in deze verordening. Op welke manier is er sprake van onafhankelijke
externe toetsing op de kwaliteit van zelfbeoordelingen en op het daadwerkelijk naleven
van de uitgangspunten van de verordening?
De leden van de GroenLinks-fractie ondersteunen de inzet van deze verordening op verhoogde
transparantie bij het gebruik van AI-systemen. Deze leden merken echter op dat de
interpretatie van transparantie zich lijkt te beperken tot het informeren over het
feit dat er gebruik wordt gemaakt van AI-systemen. Is dat niet een veel te beperkte
benadering, zo vragen deze leden? Is het kabinet bereid om zich ervoor in te zetten
dat de verordening ook transparantie afdwingt over de wijze waarop AI-systemen werken
en hoe deze tot hun uitkomsten en besluiten komen, met name richting personen die
aan AI-systemen worden onderworpen?
De leden van de GroenLinks-fractie hebben ook vragen bij het standaardisatieproces.
Wat is de positie van het kabinet over het feit dat het opstellen van deze normen
of standaarden wordt gedelegeerd aan private instellingen zoals CEN (Europese Commissie
voor Standaardisatie) en CENELEC (Europese Commissie voor Elektrotechnische Standaardisatie)?
Erkent het kabinet dat de details van deze standaarden gevolgen hebben voor fundamentele
rechten, en deelt het kabinet de mening dat experts op het gebied van fundamentele
rechten en AI en ethiek ook bij dit standaardisatieproces betrokken moeten worden?
Zo ja, op welke wijze wordt dit geborgd? Zo nee, waarom niet?
Tenslotte vragen de leden van de GroenLinks-fractie naar de klimaateffecten van het
toenemend gebruik van kunstmatige intelligentie. Zou klimaatimpact niet moeten worden
meegewogen in de classificatie en regulering van AI-systemen?
Vragen en opmerkingen van de leden van de Volt-fractie
De leden van de Volt-fractie hebben de BNC-fiches over de concept Verordening betreffende
Kunstmatige Intelligentie («AI-verordening») en de Mededeling Bevorderen Europese
aanpak inzake Kunstmatige Intelligentie met grote belangstelling gelezen. Deze leden
onderschrijven het belang van innovatie en technologische ontwikkelingen, waarbij
publieke waarden, zoals het beschermen van grondrechten en de basisbeginselen van
de Europese Unie, centraal staan. In dat kader is regulering van de toepassing van
kunstmatige intelligentie essentieel. Deze leden zijn benieuwd naar de overwegingen
die het demissionaire kabinet heeft meegenomen in aanloop naar haar positiebepaling
ten aanzien van de concept AI-verordening. Hoe is het demissionaire kabinet tot haar
positie ten aanzien van de verordening gekomen? Wie heeft het demissionaire kabinet
hiervoor geraadpleegd? Welke afwegingen zijn gemaakt en in hoeverre is het standpunt
van het demissionaire kabinet, te lezen in de fiches, definitief? Hoe voorziet het
demissionaire kabinet eventuele tussentijdse bijstelling van de positie tijdens het
onderhandelingsproces, in de raadswerkgroep- en Coreper-fase, wordt de Kamer hierin
meegenomen?
Innovatie is een middel om publieke waarden te laten floreren. De leden van de Volt-fractie
zien het dan ook als een voorwaarde dat bij de inzet van AI-systemen altijd de vraag
wordt gesteld welke maatschappelijke impact dit heeft. Deze leden vragen het demissionaire
kabinet dan ook allereerst hoe zij bescherming van publieke waarden bij de wetsonderhandelingen
van de AI-verordening zal betrekken.
Zoals het demissionaire kabinet terecht opmerkt bevat de concept AI-verordening een
aantal vage definities. Zo bestaat onduidelijkheid over de definitie van AI (artikel
3, sub 1). Hoe definieert het demissionaire kabinet AI? Welke definitie wenst het
demissionaire kabinet in de verordening terug te zien, zodat de definitie recht doet
aan de wetenschappelijke en dagelijkse praktijk, en tegelijkertijd uitputtend is?
Welke afwegingen heeft het demissionaire kabinet meegenomen in de vaststelling van
de definitie en in hoeverre is de positie van het kabinet beklonken?
Daarnaast bestaat onduidelijkheid over aanbieders (artikel 3, sub 2) en gebruikers
(artikel 3, sub 4) en de wijze van kwalificatie van actoren. Welke definities zouden
volgens het demissionaire kabinet in de concept-verordening moeten worden opgenomen
en welke overwegingen liggen daaraan ten grondslag? Waar zou volgens het demissionaire
kabinet de grens tussen provider en gebruiker moeten liggen en is zij voornemens deze
visie te delen in aanstaande wetsonderhandelingen?
Hoe gaat het demissionaire kabinet ervoor zorgen dat duidelijkheid ontstaat over de
definities en actoren, zodat coherentie met bestaande regelgeving wordt geborgd (zowel
huidige als in ontwerp zijnde Nederlandse en EU wet- en regelgeving)? Wat zal daarbij
de inzet zijn van het demissionaire kabinet? Waarin ziet zij ruimte voor verbetering
ten aanzien van coherentie met bestaande regelgeving?
De leden van de Volt-fractie stellen dat de concept AI-verordening onduidelijk is
over welke AI-systemen als hoog-risico moeten worden gezien (artikel 5). Deelt het
demissionaire kabinet deze mening? Deelt het demissionaire kabinet de mening dat de
concept AI-verordening een beperkte definitie van hoog-risico AI definieert? Zo ja,
wat zou er volgens het demissionaire kabinet onder hoog-risico moeten vallen? Zo nee,
waarom niet? Hoe beoordeelt het demissionaire kabinet de restrictieve definitie van
hoog-risico AI en de daardoor beperkte reikwijdte van de verordening? Acht het demissionaire
kabinet het beschermingsniveau voldoende? Zo ja, waarom? Zo nee, hoe zou de reikwijdte
er volgens het demissionaire kabinet dan uit moeten zien en hoe gaat het demissionaire
kabinet dit in Europa bewerkstelligen?
Hoeveel bewegingsvrijheid zou de Europese Commissie moeten hebben om de lijst met
hoog-risico AI-systemen in de toekomst aan te vullen (artikel 7)? Welke kaders ziet
het demissionaire kabinet voor deze bewegingsvrijheid? In hoeverre zal het demissionaire
kabinet ervoor zorgen dat de lidstaten voldoende mogelijkheden behouden om de samenstelling
van de lijst te kunnen controleren? Wat wordt de inzet van het demissionaire kabinet
in de wetsonderhandelingen en hoe, en in samenwerking met wie, is deze onderhandelingsinzet
tot stand gekomen?
Wil het demissionaire kabinet het gebruiken van biometrische identificatie door politie
en justitie in een beperkt aantal uitzonderingsgevallen toestaan? Zo ja, welke uitzonderingsgevallen
betreft dit? Is het demissionaire kabinet bekend met de open brief van Access Now,
Amnesty International, European Digital Rights (EDRi), Human Rights Watch, Internet
Freedom Foundation (IFF), and Instituto Brasileiro de Defesa do Consumidor (IDEC)1? Onderschrijft het demissionaire kabinet de zorgen over de potentiële risico’s van
de uitzonderingen voorgesteld in de AI-verordening, waarbij het gebruik van biometrische
identificatie door politie en justitie wel is toegestaan? Zo ja, hoe gaat het demissionaire
kabinet ervoor zorgen dat deze risico’s worden gemitigeerd? Zo nee, waarom niet? Is
het demissionaire kabinet van mening dat het gebruik van biometrische gegevens voor
identificatie door private bedrijven geheel verboden moet worden? Zo ja, wat is daarvoor
de onderbouwing? Zo nee, hoe is dit standpunt tot stand gekomen en wie waren er betrokken
bij dit besluitvormingsproces? Welke afwegingen liggen daaraan ten grondslag en hoe
heeft het demissionaire kabinet die afwegingen gemaakt?
De Europese privacy waakhonden EDPS en EDPB roepen op tot een algeheel verbod op sociale
scores, aangezien dit in strijd is met de fundamentele waarden van de EU en tot discriminatie
kan leiden. Deelt het demissionaire kabinet de mening dat het gebruik van sociale
scoresystemen niet past binnen een vrije en open samenleving? Deelt het demissionaire
kabinet de mening dat social scores niet alleen verboden zou moeten worden voor overheidsinstanties,
maar ook voor private partijen (zoals bijvoorbeeld verzekeraars)? Zo ja, met welke
inzet zal het demissionaire kabinet dit in de EU bewerkstelligen? Zo nee, waarom niet?
Wat is de visie van het demissionaire kabinet ten aanzien van de rechtshandhaving
voor social scores? Is het demissionaire kabinet voornemens hier op Europees niveau
toezicht op te houden? Zo ja, hoe zal dit toezicht vormgegeven worden? Zo nee, op
basis van welke overwegingen is deze keuze tot stand gekomen?
In het verlengde hiervan vragen de leden van de Volt-fractie welke vormen van onbewuste
sturing van burgers (zoals micro-targeting) het demissionaire kabinet ongewenst acht
en of het demissionaire kabinet van mening is dat de concept AI-verordening voldoende
beschermingsniveau biedt om deze ongewenste sturing te voorkomen. Hoe is het demissionaire
kabinet tot deze conclusie gekomen? In het geval dat de concept AI-verordening onvoldoende
bescherming biedt, hoe is het demissionaire kabinet voornemens dit op Europees niveau
aan te kaarten en zich hiervoor hard te maken?
Het Europees Parlement zal waarschijnlijk aandringen op een strenger verbod ten aanzien
van het gebruik van technologieën voor voorspellend politiewerk (zoals biometrische
surveillance). Hoe denkt het demissionaire kabinet over de wens van het EP ten aanzien
van het aandringen op een strenger verbod? Hoe zou dat verbod er volgens het demissionaire
kabinet uit moeten zien? Is het demissionaire kabinet van mening dat er een algemeen
verbod zou moeten komen voor het gebruik van technologieën voor voorspellend politiewerk?
Welke afweging ligt daaraan ten grondslag en hoe heeft het demissionaire kabinet die
afweging gemaakt? Deelt het demissionaire kabinet het oordeel dat er een algemeen
verbod moet komen voor biometrische surveillance in de publieke ruimte? Welke afweging
ligt daaraan ten grondslag en hoe heeft het demissionaire kabinet die afweging gemaakt?
Hoe weegt het demissionaire kabinet de daarbij betrokken grondrechten die mogelijk
in het geding komen?
Het is voor de leden van de Volt-fractie onduidelijk hoe de risicoanalyse van aanbieders
van AI-systemen met een hoog-risico die de markt willen betreden eruit moet komen
te zien en welke actoren deze conformiteitsbeoordeling moeten uitvoeren. Hoe oordeelt
het demissionaire kabinet over het proces van zelfevaluatie voor aanbieders van hoog-risico
AI-systemen? Welke kaders zouden er volgens het demissionaire kabinet moeten worden
gesteld voor dergelijke zelf risicoanalyses? Biedt de concept verordening volgens
het demissionaire kabinet voldoende kaders? Deelt het demissionaire kabinet de mening
dat de administratieve lasten en complexiteit van de zelf risicoanalyses ervoor kunnen
zorgen dat de betrouwbaarheid en kwaliteit van beoordelingen achteruitgaan, met als
gevolg dat de (hoog-risico) AI-systemen alsnog beperkt betrouwbaar zijn? Zo ja, hoe
gaat het demissionaire kabinet ervoor zorgen dat dit voorkomen wordt? Zo nee, waarom
niet?
De leden van de Volt-fractie onderschrijven nogmaals het belang van regulering van
AI, maar uiten ook zorgen over de implicaties voor midden- en kleine ontwikkelaars
en publieke organisaties. De mogelijke administratieve lasten en complexiteit van
de uitvoering kan toetreden tot de markt voor deze organisaties, zeker ten opzichte
van grote technologiebedrijven, lastiger maken. Welke maatregelen gaat het demissionaire
kabinet nemen om ervoor te zorgen dat het de implicaties voor de uitvoering en implementatie
van de uiteindelijke AI-verordening organisaties – in het bijzonder mkb-bedrijven
en publieke organisaties – zo efficiënt en goed mogelijk beheerst? Op basis van welke
afwegingen heeft het kabinet deze maatregelen opgesteld en is de keuze voor deze maatregelen
definitief? Deze leden denken daarbij bijvoorbeeld aan: (i) tijdige en bruikbare voorlichtingscampagnes;
(ii) handvatten om in aanloop naar de invoering van de AI-verordening al in lijn met
de AI-verordening te ontwikkelen; (iii) het aanbieden of ondersteunen van organisaties
bij het maken van impact assessments voor de implementatie van de AI-verordening;
en (iv) financiële middelen om organisaties te ondersteunen, zodat de AI-verordening
er niet voor zorgt dat de ontwikkeling van innovatie AI-toepassingen stopt en de markt
niet langer toegankelijk wordt voor kleine ontwikkelaars.
Het beschermingsniveau dat de transparantieregels voor gebruikers van AI-systemen
biedt, zoals omschreven in artikel 13 van de concept verordening, is beperkt. Deelt
het demissionaire kabinet het standpunt dat de bepalingen in de concept verordening
onvoldoende mogelijkheden bieden voor gebruikers van AI-systemen om te controleren
of de uitkomsten van het gebruik van AI-systemen juist en rechtmatig zijn? Zo ja,
met welke inzet zal het demissionaire kabinet ervoor zorgen dat burgers die te maken
krijgen met AI-systemen van private partijen, maar in het bijzonder ook overheidsorganisaties,
de mogelijkheid krijgen om de uitkomsten van deze AI-systemen te controleren op rechtmatigheid
en indien dit ontbreekt daartegenop te treden? Zo nee, waarom niet?
Is het demissionaire kabinet een voorstander van het verplicht openbaar maken van
broncodes van AI-software? Zo ja, welke welke afwegingen liggen hieraan ten grondslag?
Zo nee, welke afwegingen liggen hieraan ten grondslag? Is het standpunt van het demissionaire
kabinet afgewogen tegen de positie van andere Europese lidstaten en is er in aanloop
naar de vaststelling van de positie met hen overlegd? Zo ja, welke zaken zijn meegenomen
in de positiebepaling en welke heeft het kabinet achterwege gelaten en waarom? Zo
nee, waarom is dit niet meegenomen en in de positiebepaling? Welke grondrechten heeft
het demissionaire kabinet in die afweging meegenomen? In hoeverre kunnen de leden
van de Volt-fractie constateren dat de positie van het demissionaire kabinet is beklonken?
Ten aanzien van de wetsonderhandelingen hebben de leden van de Volt-fractie een aantal
vragen. Hoe is het demissionaire kabinet voornemens om tussentijds de Kamer te informeren
ten aanzien van de wetsonderhandelingen die de komende jaren gevoerd zullen worden
in de raadswerkgroepen? Kan het demissionaire kabinet toezeggen de Kamer tweemaandelijks
te informeren over de onderhandelingspositie van het (demissionaire) kabinet, de overwegingen
en eventuele nuanceringen op de positie of nadere detaillering volgend uit de wetgevingsonderhandelingen?
In hoeverre gaat het demissionaire kabinet bovenstaande overwegingen geopperd door
deze leden meenemen in de onderhandelingen?
Tot slot de toepassing van AI-systemen binnen en door de overheid. Hoe gaat het demissionaire
kabinet ervoor zorgen dat de capaciteit en kennis binnen alle overheidsorganen ten
aanzien van het gebruik en de impact van AI-systemen op orde is? Welke concrete maatregelen
zal het demissionaire kabinet hiervoor nemen? Welk ministerie zal eindverantwoordelijke
worden voor de implementatie, uitvoering en handhaving van de AI-verordening? Indien
verschillende departementen verantwoordelijk zullen zijn voor de AI-verordening, hoe
zal tussen deze departementen worden samengewerkt om coherentie, efficiëntie en effectiviteit
te borgen?
Ondertekenaars
-
Eerste ondertekenaar
R.M. Leijten, Tweede Kamerlid -
Mede ondertekenaar
I. van Tilburg, adjunct-griffier
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.