Verslag van een schriftelijk overleg : Verslag van een schriftelijk overleg over de initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen (Kamerstuk 35212-2)
35 212 Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen
Nr. 4
VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
Vastgesteld 1 juli 2020
De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen en opmerkingen
voorgelegd aan de initiatiefnemer van de initiatiefnota over menselijke grip op algoritmen
(Kamerstuk 35 212, nr. 2).
De vragen en opmerkingen zijn op 18 september 2019 aan de initiatiefnemer voorgelegd.
Bij brief van 10 juni 2020 zijn de vragen beantwoord.
De voorzitter van de commissie, Van Meenen
Adjunct-griffier van de commissie, Burger
Vragen en opmerkingen van de leden van de VVD-fractie
Algemeen
De leden van de VVD-fractie constateren dat het kabinet in antwoord op de initiatiefnota
Menselijke Grip op Algoritmen (Kamerstuk 35 212, nr. 2) een taskforce onderzoekt om het wettelijk kader en toezicht rondom algoritmen/Artificiële
intelligentie (AI) te onderzoeken en met voorstellen te komen. Zo’n taskforce zou
ook belangrijke input kunnen leveren aan de positionering van Nederland in de Europese
dialoog over AI. Is het kabinet het hiermee eens en kan het dit meenemen in het onderzoek
naar de genoemde taskforce?
Antwoord
Het kabinet verkent momenteel in welke vorm1 een dergelijke taskforce meerwaarde kan hebben. Onderdeel van deze verkenning is
ook dat wordt bezien met welke vraagstukken een mogelijke taskforce zich bezig zou
kunnen houden. Het kabinet zal rond de zomer van 2020 een besluit nemen over het al
dan niet instellen van de taskforce. U zal hier dan over worden geïnformeerd via de
reguliere kanalen.
1.1 Algemene appreciatie ecosysteem van vertrouwen
De leden van de VVD-fractie lezen dat er voor een meer diepgaande appreciatie een
verdere concretisering van de door de Commissie beoogde risicogerichte aanpak nodig
is. Wanneer wordt deze verdere concretisering verwacht?
Antwoord
Op 19 februari jl. heeft de Europese Commissie het witboek AI gepresenteerd. Tegelijkertijd
is de Commissie een consultatieprocedure begonnen voor dit witboek teneinde input
op de voorgestelde aanpak te ontvangen van lidstaten en relevante stakeholders. De
kabinetsappreciatie fungeert als Nederlandse inbreng voor deze consultatie. De inbreng
uit deze consultatieprocedure zal door de Commissie worden meegenomen in een concreet
voorstel dat zij zal uitwerken dat vooralsnog wordt verwacht in het eerste kwartaal
van 2021. Het kabinet beziet hoe Nederland in aanvulling hierop verder bij kan dragen aan uitwerking van deze concretisering.
Deze leden vragen in hoeverre de «lerende aanpak» invloed heeft op de snelheid van
de invoering van AI-toepassingen. Kan het voorkomen dat deze aanpak de invoering van
AI-toepassingen op enige manier belemmert of vertraagt? Zo ja, acht het kabinet de
dit problematisch?
Antwoord
Het kabinet pleit voor een «lerende aanpak» waarbij onderzoek, experimenten en pilots
moeten uitwijzen of (en waar) problemen ontstaan. Hierbij is het belangrijk dat de
resultaten van de lerende aanpak snel beschikbaar zijn zodat waar nodig en mogelijk
tijdig geïnvesteerd kan worden in generieke wettelijke waarborgen, dit mede vanuit
het oogpunt van rechtszekerheid. Daarmee kan worden bijgedragen aan het creëren en
behouden van voldoende vertrouwen in AI-toepassingen binnen de samenleving. Dit vertrouwen
is essentieel voor de verdere ingebruikname van AI-toepassingen. De lerende aanpak
combineert deze noodzaak voor vertrouwen in mensgerichte AI met de mogelijkheid om
wel stappen te zetten in het gebruik van AI-toepassingen. Daarmee ziet het kabinet
de lerende aanpak juist als een manier om de inzet van AI te bespoedigen.
Wanneer het kabinet het heeft over het wegnemen van risico’s van AI door het invoeren
van wetgeving, aan welke risico’s denkt het dan?
Antwoord
Wanneer nieuwe technologieën worden ingezet of in een nieuwe context worden toegepast
gaat dit vaak gepaard met een transformatie van bestaande processen. Voorbeelden van
risico’s waaraan gedacht kan worden zijn continue reproductie door een algoritmisch
systeem van discriminatie van individuen of groepen op onwenselijke gronden of aansprakelijkheidsvraagstukken
bij autonoom opererende zelflerende systemen. Dit zijn complexe socio-technologische
processen waarbij niet op voorhand te zeggen valt op welke wijze dit precies beslag
krijgt en welke risico’s zich voordoen. Daarom is de lerende aanpak van belang, waarbij
voor elke stap wordt gekeken op welke wijze de kansen van de technologie gemaximaliseerd
kunnen worden, welke risico’s zich voordoen en op welke wijze deze risico’s het beste
kunnen worden weggenomen. Of aanvullende wetgeving nodig is, en zo ja, in welke vorm,
kan dan pas worden vastgesteld.
Hoe verzekert het kabinet dat deze wetgeving geen vertraging zal oplopen ten aanzien
van de invoering van AI-toepassingen en dat de EU hierdoor niet aan concurrentievermogen
verliest ten opzichte van bijvoorbeeld de Verenigde Staten en China, waar minder strenge
wetgeving geldt en innovaties sneller de markt op kunnen komen?
Antwoord
Op dit moment is het een voorstel tot wetgeving. Het kabinet zal bij de Europese Commissie
blijven verzoeken om het voorstel voor wetgeving met prioriteit te (blijven) behandelen.
4B. Richting geven aan de inspanningen van de onderzoeks- en innovatiegemeenschap
De leden van de VVD-fractie lezen dat Nederland het belangrijk vindt dat de acties
van de Commissie aansluiten bij de, door de NWO uitgebrachte, AI-onderzoeksagenda.
In hoeverre is daar nu sprake van? Wat doet het kabinet om de acties van de Commissie
aan te sturen?
Antwoord
De Europese Commissie heeft aangegeven dit jaar het gecoördineerd actieplan voor AI
te herzien. Het kabinet vindt het belangrijk dat op het gebied van de onderzoeks-
en innovatiegemeenschap zoveel mogelijk wordt aangesloten bij acties uit de lidstaten
om kennis en innovatie over AI in Europa te versterken, zoals ook de door de NWO uitgebrachte
AI-onderzoek agenda. Het kabinet gaat de NWO onderzoeksagenda onder de aandacht brengen
bij de Commissie.
4D. Focus op het mkb
Ook lezen de leden van de VVD-fractie dat een digitale innovatie per lidstaat een
hoge mate van specialisatie dient te hebben. Wat wordt hier mee bedoeld? Is het kabinet
het met deze leden eens dat innovatie dient plaats te vinden in de lidstaten die hier
het beste toe in staat zijn?
Antwoord
Het kabinet is van de mening dat innovatie moet aansluiten op de nationale acties
en bestaande nationale en regionale innovatiehubs. Het streven van de Europese Commissie
is dat alle European Digital Innovation Hubs (EDIH) een specialisatie hebben gericht
op de omgeving en context van de specifieke hub en dat elke lidstaat één digitale
innovatie hub heeft met een hoge mate van specialisatie op AI. Dat betekent dat de
specifieke EDIH bedrijven zou moeten helpen met AI-toepassingen of data-opties. De
Europese Commissie zal een beoordeling doen op de voorstellen of de hub voldoet aan
de voorwaarden.
4E. Partnerschap met de private sector
Verder lezen de leden van de VVD-fractie dat de Commissie een nieuw publiek-privaat
partnerschap op te richten voor AI. Kan het kabinet toelichten wat zij de toegevoegde
waarde van een dergelijk agentschap vindt? Hoe kan een dergelijk Agentschap complementair
zijn aan de bestaande publiek-private samenwerkingsverbanden?
Antwoord
In het kader van Horizon Europe komt de Commissie met het initiatief om een nieuw
publiek-privaat partnerschap op te richten voor AI, geen agentschap. De toegevoegde
waarde van Europese samenwerking in een publiek-privaat partnerschap zit in de bundeling
van krachten van lidstaten. Voor betrokkenheid van het bedrijfsleven bij onderzoek en innovatie is het voor
Nederland van belang dat dit initiatief complementair is aan de bestaande publiek-private
samenwerkingsverbanden in de lidstaten, zoals in Nederland onder de Smart Industry
hubs en de overkoepelende publiek-private samenwerking in de Nederlandse AI Coalitie.
Deze Nederlandse initiatieven werken complementair aan elkaar met als gezamenlijk
doel om de groei en het concurrentievermogen van de Nederlandse economie te versterken
met verantwoord en op fundamentele rechten gebaseerd gebruik van AI.
Deze leden lezen dat decentrale overheden een grote rol kunnen spelen bij het integreren
van AI in de samenleving en de acceptatie daarvan. Ook lezen zij dat zij een rol kunnen
spelen in het opzetten van labs en proeftuinen. Gebeurt dit veel? Zo nee, hoe kan dit worden gestimuleerd?
Antwoord
Lokale en regionale overheden experimenteren regelmatig met een verantwoorde inzet
van AI in labs en proeftuinen. Zo is de gemeente Amsterdam nauw betrokken bij het
initiatief Civic AI Lab (CAIL), waarin AI wordt ingezet om burgerparticipatie te stimuleren.
In dit soort leeromgevingen, krijgen AI-projecten met aandacht voor publieke waarden
en fundamentele rechten in een stakeholdernetwerk vorm. Dat zorgt voor een breed gedragen
resultaat en brengt verdieping in de bestaande instrumenten om mensgerichte AI te
bevorderen. Een ander voorbeeld is het project «AI met impact» dat mede door BZK is
gefinancierd. Twee initiatieven worden binnen dit project opgepakt: de inzet van AI
om zwerfvuil tegen te gaan en om doorstroming in de sociale woninghuur te bewerkstelligen.
5E. Adressanten
Tot slot lezen de leden van de VVD-fractie dat het kabinet onderzoekt hoe de verantwoordelijkheid
voor bijvoorbeeld grote online platforms voor wangebruik van consumentendata vormgegeven
kan worden. Wanneer worden de uitkomsten van dit onderzoek verwacht?
Antwoord
Het kabinet benadrukt dat de positie van de digitale consument moet worden versterkt
en onderzoekt mogelijkheden daarvoor. Dit is in lijn met de eerder aangenomen motie
van het lid Moorlag en Buitenweg2. In het najaar zal uw Kamer hierover worden geïnformeerd.
Vragen en opmerkingen van de leden van de CDA-fractie
De leden van de CDA-fractie hebben kennisgenomen van kabinetsappreciatie Witboek over
kunstmatige intelligentie. Zij hebben daarover de volgende vragen en opmerkingen.
1.1 Algemene appreciatie ecosysteem van excellentie
De leden lezen dat het kabinet, samen met de Europese Commissie, signaleert dat een
technologie als AI in toenemende mate een plek krijgt in het dagelijks leven van bedrijven.
Als voorbeeld zien deze leden dat gesproken wordt over het gebruik van (zorg)data
en AI als bijdrage aan de bestrijding van infectieziekten als COVID-19. Zij vinden
dit een interessant voorbeeld. Deelt het kabinet de analyse van deze leden dat toepassing
van AI bij de bestrijding van verspreiding van infectieziekten alleen kan slagen indien
er voldoende, kwalitatief goede data beschikbaar zijn? Ziet het kabinet het spanningsveld
tussen het gebruik van dergelijke data en de privacywaarborgen waar de Europese Unie
ook voorloper in is? Kan het kabinet daarbij meenemen dat de Autoriteit Persoonsgegevens
heeft aangegeven dat telecomdata op dit moment niet mogen worden gebruikt voor dergelijke
doeleinden en dat er mogelijk een wetsaanpassing voor nodig zal zijn?
Antwoord
Het kabinet ziet dat er veel initiatieven zijn waarbij wordt voorgesteld om bepaalde
gegevens te analyseren, al dan niet met behulp van AI, om daarmee het COVID-19 virus
verder in te dammen. Dergelijke voorstellen behoeven inderdaad dat voldoende kwalitatief
goede data beschikbaar is. Het is van belang om per initiatief grondig te wegen of
het gebruik van dergelijke data rechtmatig is. Het kan voorkomen dat een voorstel
om gegevens te gebruiken niet in overeenstemming is met de normen uit de gegevensbeschermingswetgeving,
of een inbreuk op fundamentele rechten, zoals vervat in onder meer het EVRM en de
Grondwet, met zich mee zou brengen. Dit betekent echter niet dat gegevens per definitie
niet gebruikt kunnen worden. Vaak kunnen er extra maatregelen worden getroffen (bijvoorbeeld
door privacy by design toe te passen) om bijvoorbeeld de privacy van burgers beter te borgen en toch de voordelen van een gegevenswerking
(bijvoorbeeld een AI-toepassing) in te kunnen zetten teneinde bij te dragen aan het
tegengaan van de COVID-19 pandemie. Het door de leden aangedragen onderwerp van het
uitwisselen van telecomgegevens is daarvan een sprekend voorbeeld. De Autoriteit Persoonsgegevens
heeft aangegeven dat er een wettelijke basis moet zijn voor het uitwisselen van gegevens,
omdat bovengenoemde waarborgen dat vereisen. Rekening houdend met die waarborgen aan
de ene kant en het belang van de inzet van gegevens aan de andere kant, heeft het
kabinet recentelijk een tijdelijke wijziging van de Telecommunicatiewet ingediend3.
In bredere zin vragen de leden van de CDA-fractie het kabinet hoe deze borging van
grondrechten, die in Europees verband zijn opgesteld, zich verhoudt tot het voldoende
benutten van kansen die kunstmatige intelligentie kan bieden. Ziet het kabinet dat
in andere landen, waar minder waarde wordt gehecht aan privacy, de innovatie sneller
verloopt?
Antwoord
Het kabinet ziet geen directe relatie tussen de waarde die wordt gehecht aan privacy
en de snelheid van innovatie in een land. Factoren zoals de beschikbaarheid van voldoende
economische middelen, een goede digitale infrastructuur en excellent wetenschappelijk
onderwijs en onderzoek spelen eerder een rol. Wel ziet het kabinet dat de wijze waarop
innovatie verloopt per land verschilt, afhankelijk van de waarde die wordt gehecht
aan privacy en andere fundamentele rechten en de doelen die landen nastreven. Waar
in sommige landen innovatie meer gericht is op het versterken van de staat of waar
het vooral ten bate van bedrijven komt, is de Europese (en Nederlandse) benadering
gestoeld op de notie dat innovatie voor de gehele samenleving dient te werken.
Om een ecosysteem van excellentie te creëren, legt Nederland de nadruk op het toepassen
van een «lerende aanpak». Kan het kabinet duidelijk maken hoe het deze voor zich ziet?
Antwoord
Het kabinet wil graag dat de «lerende aanpak» integraal wordt opgenomen in de herziening van het gecoördineerde plan, waarbij onderzoek, experimenten
en pilots moeten uitwijzen of (en waar) problemen ontstaan. Vervolgens moet worden
bekeken hoe deze problemen aan de hand van beleid en richtsnoeren en met toepassing
van bestaande instrumenten, inclusief wet- en regelgeving, kunnen worden opgelost.
Als op basis van deze lerende aanpak blijkt dat nieuwe wet- en regelgeving nodig is,
is de vraag of die «generiek» – voor het hele AI-domein – en/of toepassing specifiek
moet zijn. Hierbij is het belangrijk dat de resultaten van de lerende aanpak snel
beschikbaar zijn zodat waar nodig en mogelijk tijdig geïnvesteerd kan worden in generieke
wettelijke waarborgen, dit mede vanuit het oogpunt van rechtszekerheid. Vanuit dit
perspectief lijkt de methode van de Commissie om gebieden met een hoog risico te identificeren
en haar aanpak voor een onderscheid tussen hoge en lage risico’s vooralsnog positief.
Nederland juicht ook toe dat de Commissie de resultaten van de tot nu toe beschikbare
experimenten met de Ethische Richtsnoeren heeft verwerkt in onderhavig witboek. Nederland
opteert ervoor om in principe aan deze »lerende benadering» vast te houden in het
proces waarin we zoeken naar proportionele risico-mitigatie.
De leden van de CDA-fractie lezen dat «het kabinet Europese initiatieven ondersteunt
die zijn ingediend in de «Naar een levendig Europees netwerk van AI excellentie centers».
Op welke wijze(n) ondersteunt het kabinet deze en met welke middelen?
Antwoord
Het kabinet ondersteunt Europese (onderzoeks)initiatieven waarin Nederlandse onderzoekers
deelnemen zoals het ELLIS -en Claire netwerk. De ondersteuning kan bestaan uit het
uitspreken van (politieke) ondersteuning van een netwerk of met financiële middelen.
Met steun van het kabinet en de gemeente Den Haag heeft het Claire netwerk bijvoorbeeld
het Europese hoofdkantoor in Den Haag gevestigd.
Ter bevordering van kennis- en innovatie voor AI kijkt het kabinet naar de mogelijkheden
van het aangekondigde groeifonds. De leden van de CDA-fractie vinden dit positief,
mede vanuit de gedachte dat we ons als Nederland uit een (economische) coronacrisis
moeten «innoveren». Heeft de coronacrisis gevolgen voor dit groeifonds? Wanneer wordt
hier meer over bekend?
Antwoord
Het kabinet werkt aan versterken van het Nederlandse duurzame verdienvermogen op de
lange termijn. Onderzoek en innovatie zijn belangrijke drijvers van welvaartsgroei,
waarbij sleuteltechnologieën als AI van grote impact kunnen zijn op verschillende
sectoren. Er wordt gewerkt aan het versterken van onderzoek- en innovatie ecosystemen
en het investeringsfonds is volop ontwikkeling. De Minister van Economische Zaken
en Klimaat en de Minister van Financiën zullen de Tweede Kamer rond Prinsjesdag nader
informeren over het investeringsfonds.
1.2. Algemene appreciatie ecosysteem van vertrouwen
De leden van de CDA-fractie hebben kennisgenomen van de zes aandachtspunten waarmee
volgens het kabinet rekening moet worden gehouden. Een daarvan is het waarborgen van
Europese waarden en normen. Deze leden lezen over de mogelijkheid om een «additioneel
instrument» in het leven te roepen om deze waarden en normen te beschermen. Zij vragen
aan wat voor instrument kan worden gedacht.
Antwoord
De Commissie zal mede op basis van de inbreng uit de consultatieprocedure met een
concreet voorstel komen als follow-up op het witboek AI. Het kan zijn dat de Commissie
hierin een voorstel tot additionele wetgevende instrumenten opneemt. De consultatieperiode
loopt tot en met 14 juni 2020. Er kan daarom nog niet gezegd worden wat de Commissie
beoogt. Zoals in de kabinetsappreciatie is verwoord, is het de inzet van het kabinet
zoveel mogelijk aan te sluiten bij bestaande instrumenten. Bij het overwegen van een
additioneel instrument is het een absolute prioriteit om de consistentie met bestaande
wettelijke kaders, zowel Europees als internationaal, te waarborgen en duidelijk te
maken hoe deze kaders zich tot elkaar zullen verhouden, waarbij de nationale competenties
zoals deze gelden voor nationale veiligheid worden gerespecteerd.
Nederland pleit ervoor dat de Commissie het voortouw neemt, daar waar nodig, in het
aanpassen van internationale regelgeving of van bilaterale overeenkomsten tussen de
EU met derde landen die aan AI raken, een element dat niet opgenomen is in het witboek
maar dat volgens Nederland wel relevant is. De Leden zijn dit met het kabinet eens.
Welke bestaande internationale regelgeving en bilaterale overeenkomsten zijn op dit
moment relevant?
Antwoord
Er is een groot aantal internationale instrumenten dat op dit gebied relevant is,
bijvoorbeeld in VN verband of van de Raad van Europa. Te denken valt aan onder andere
het Handvest van de grondrechten van de Europese Unie4, de VN-richtsnoeren inzake het bedrijfsleven en mensenrechten5, het Verdrag tot bescherming van personen met betrekking tot de geautomatiseerde
verwerking van persoonsgegevens6 en de Richtsnoeren voor Kunstmatige Intelligentie en Gegevensbescherming7. Daarnaast moet onderzocht worden in hoeverre in bilaterale handelsovereenkomsten
van de EU met derde landen of in multilaterale handelsakkoorden, bepalingen over AI
opgenomen moeten worden.
De leden van de CDA-fractie lezen dat ten aanzien van AI moet worden gewerkt aan het
vertrouwen en het van dienst zijn van burgers, met een rol voor lokale en regionale
overheden. Hoe ziet het kabinet dit voor zich?
Antwoord
Voor beantwoording verwijs ik u naar het antwoord op de gelijksoortige vraag van de
VVD-fractie.
Zouden de Smart Industry hubs hierbij een rol kunnen spelen?
Antwoord
De smart industry hubs hebben als functie om de brede industrie te activeren om gebruik
te maken van technologie zoals digitalisering en robotisering. Daarmee geven ze indirect
een positieve impuls aan het vertrouwen wanneer de toepassingen nuttig, werkbaar en
productief blijken.
3. Toekomstige kansen grijpen: de volgende datagolf
In de kabinetsappreciatie lezen de leden van de CDA-fractie dat er op het gebied van
datatoegang en -gebruik veel onbenut Europees potentieel is. Kan het kabinet dit onbenutte
potentieel toelichten en concretiseren?
Antwoord
Het kabinet heeft in de visie op datadeling tussen bedrijven8 uiteengezet dat er nog veel economische en maatschappelijk potentieel zit in verantwoord
gebruik van data. Uit eerdere onderzoek is gebleken dat het mkb nog veel zou kunnen
profiteren van verbeterde datatoegang9. Veel data kan namelijk beter worden benut met datatoepassingen zoals AI. Zo kunnen
bijvoorbeeld precies dezelfde data over het functioneren van een auto door een fabrikant
worden gebruikt om een beter model te ontwikkelen, door onderhoudsbedrijven bij het
verbeteren van hun diensten, door verzekeraars voor het achterhalen van de toedracht
en door overheid voor het verbeteren van verkeersveiligheid en verbeteren van onderhoud
aan ons wegennet. Het kabinet werkt nu via diverse acties om het potentieel van data
beter en verantwoord te benutten. Zo draagt het kabinet bij aan de herziening van
de Europese open data richtlijn (PSI-Directive)10 waarin belangrijke datasets van overheden op Europees niveau als open data beschikbaar
worden gesteld. Tot slot heeft de EC onlangs haar ambitie en voorgenomen acties met
betrekking tot data in de Europese Datastrategie gepresenteerd en een «monitoring
tool» ontwikkeld om beter inzicht in het potentieel van data in de EU te krijgen.11
4A. Samenwerking met de lidstaten
Dat de Verenigde Staten en Azië veel meer investeren in AI, is de leden van de CDA-fractie
bekend. Voor wat betreft de intensivering van de Europese AI-investeringen voor een
bedrag van jaarlijks 20 miljard euro per jaar vragen zij waarop dit bedrag is gebaseerd
en hoe het zich verhoudt tot de investeringen die de Verenigde Staten en Azië doen.
Antwoord
De 20 miljard euro is gebaseerd op eerdere berekeningen van de Europese Commissie12. Dit bedrag is mede gebaseerd op een versterkte coördinatie van investeringen in
Europa. De Europese Commissie heeft eerder ingeschat dat de investeringen van de Verenigde
Staten rond de 20 miljard euro per jaar liggen. Voor Azië zijn geen betrouwbare cijfers
bekend.
4B. Richting geven aan de inspanningen van de onderzoeks- en innovatiegemeenschap
De Commissie zal de oprichting van centra van excellentie en testcentra faciliteren,
waarbij Nederland het opzetten en verbinden van toonaangevende AI-centra en kennisinstellingen
belangrijk vindt. Hoe geeft het kabinet hier op dit moment al invulling aan? Is hierbij
ook aandacht voor multidisciplinariteit? Wat kan het kabinet delen over de huidige
en potentiële AI-infrastructuur in Nederland?
Antwoord
Een gezamenlijke EU investeringsagenda is belangrijk. Ten aanzien van onderzoek en
innovatie moet de Commissie de oprichting/versterking van centra van excellentie en
testcentra faciliteren die EU, nationale en regionale kennis/investeringen multidisciplinair
combineren. De Nederlandse AI-coalitie (NLAIC) verbindt alle Nederlandse nationale
en regionale AI excellentie en expertise. Het kabinet ziet graag dat de Commissie dit verder
faciliteert door het opzetten en verbinden van toonaangevende AI-centra en kennisinstellingen
middels netwerken en de creatie van AI-hubs. Een top Europees netwerk van AI excellentie
centra, verankerd in hubs waarbij alle activiteiten op andere geografische locaties
zich met elkaar verbinden, helpt om het versnipperende landschap van kennisinstellingen
en centra op het gebied van AI tegen te gaan en beter samen te werken. Zo kan Nederland
zich presenteren als één Hub-netwerk in Europa en een actieve rol nemen in diverse
Europese initiatieven.
4C. Vaardigheden
De leden van de CDA-fractie merken op dat de Commissie wijst op de aantrekkingskracht
van een «Lighthouse Centre». Is al bekend waar en hoe dit vorm gaat krijgen? Op welke
manier(en) draagt Nederland hieraan bij?
Antwoord
De invulling van een «Lighthouse Centre» moet nog nader vormgegeven worden. Momenteel
loopt een consultatie door de Commissie, die een nadere specificering zou moeten opleveren
om in één of meedere lighthouse en/of expertise- of excellence centra te gaan investeren.
Dit sluit goed aan bij het plan van de NLAIC om nationaal de krachten te bundelen
en zo Nederland als een toonaangevend AI kenniscentrum te positioneren in Europa.
Nederland heeft hiervoor al een goede basis, zoals de AI onderzoekslabs in het ICAI
netwerk, goede onderzoekers en bedrijven die in AI willen investeren. Daarnaast zijn
Nederlandse AI onderzoekers goed vertegenwoordigd in grote Europese onderzoeksnetwerken
als ELLIS en Claire.
4D. Focus op het mkb
De leden van de CDA-fractie delen het belang van AI voor het midden- en kleinbedrijf
(mkb). Hierbij spelen Smart Industry hubs en MKB-Werkplaatsen een belangrijke rol. Kan het kabinet met cijfers toelichten hoezeer Nederland
er via het huidige netwerk Smart Industry hubs en MKB-Werkplaatsen in slaagt om AI-ondernemerschap naar het brede mkb te brengen?
Antwoord
De Smart Industry hubs en mkb-werkplaatsen spelen een belangrijke rol voor het AI
ondernemerschap in Nederland dat voor en door het mkb wordt gestimuleerd door het
programma «Smart Industry». Het Smart Industry netwerk bestaat uit vijf regionale
Smart Industry hubs en 43 Fieldlabs. Jaarlijks wordt gemonitord welke resultaten komen
uit dat netwerk. Vanaf 2015 is in totaal 317 miljoen euro geïnvesteerd in de smart
industry fieldlabs en ongeveer 600 bedrijven zijn actief betrokken. Er wordt geëxperimenteerd
met innovatie via tools en trainingsmodules voor gebruik van AI en data.
Vanuit het programma Versnelling digitalisering mkb zijn recent zes MKB-Werkplaatsen
opgericht waar kleinere lokale bedrijven met behulp van studenten experimenteren met
data, waaronder met AI-toepassingen. Denk aan een motoronderdelen-webshop die door
een AI-algoritme slimmer inkoopt en meer rendement maakt. Dit is van groot belang
om te zorgen dat het mkb meekomt in de digitale transitie. Vanaf het voorjaar wordt
toegewerkt naar een landelijk dekkend netwerk van MKB-Werkplaatsen, daartoe is de subsidieregeling «MKB Werkplaatsen» op 2 april jl. opengesteld.13 Hoewel de MKB-Werkplaatsen activiteiten kunnen verrichten op het gebied van AI ligt
in de eerste subsidieronde van de regeling MKB-Werkplaatsen de focus technologische
oplossingen op het gebied van online sales en marketing, het benutten van data en/of
automatisering. Afhankelijk van de evaluatie van de aanvragen van de eerste ronde
en behoefte van het mkb op het gebied van digitalisering zal bekeken worden welke
focus de tweede openstelling eind dit jaar zal krijgen. Over de voortgang van de MKB-werkplaatsen
wordt de kamer nader geïnformeerd via de voorgangsrapportage van het MKB Actieplan,
dit zal naar verwachting in het vierde kwartaal van dit jaar zijn.
4E. Partnerschap met de private sector
Er worden 25 nieuwe posities van hoogleraren en academische benoemingen bij academische
instellingen in Nederland gecreëerd. De leden van de CDA-fractie vragen of al bekend
is welke instellingen dit betreft.
Antwoord
De Kickstart AI is een initiatief van KLM, ING, Ahold Delhaize, Philips en de NS.
Om AI een boost te geven is er samen met academische instellingen in Nederland een
matchmaking opgezet om 25 nieuwe posities te creëren van hoogleraren en academische
benoemingen bij academische instellingen in Nederland. Dit proces zal worden afgerond
in juni 2020, dan wordt meer bekend.
4G. Zorgen voor toegang tot data en computerinfrastructuur
De leden van de CDA-fractie lezen dat Nederland het belang van het verbeteren van
de toegang tot data onderschrijft. Hoezeer is ook aandacht voor andere aspecten van
data, zoals controle over data, eigendom en zeggenschap, en verantwoording?
Antwoord
Het kabinet heeft in zijn ambitie om de toegang tot data te verbeteren aandacht voor
alle aspecten van data. «Mensen en bedrijven houden grip op gegevens» is daarom één
van de drie principes uit de kabinetsvisie op datadeling voor bedrijven14. Naast het feit dat wordt ingezet op kansrijke datadeling (zo veel mogelijk deling
en hergebruik) is verantwoord delen een belangrijke voorwaarde (met respect voor legitieme
belangen zoals privacy, autonomie en gevoelige bedrijfsinformatie). Zonder grip zijn
veel partijen niet bereid om datatoegang te verlenen of beschikbaar te stellen. Waar
het gaat om persoonlijke data die beheerd worden door de overheid is bijzondere aandacht
voor controle, zeggenschap en verantwoording. Dit is nader beschreven in de Kamerbrief
«Regie op gegevens»15.
5B. Mogelijke aanpassingen van bestaande EU-regelgeving
De Commissie analyseert dat AI-toepassingen door een breed kader aan EU-wetgeving
worden gereguleerd, waaronder wetgeving op het gebied van productveiligheid en -aansprakelijkheid,
de fundamentele rechten, anti-discriminatiewetgeving, het gegevensbeschermingsrecht
en het mededingingsrecht. Ziet het kabinet nog lacunes in de wetgeving, die zouden
moeten worden gevuld?
Antwoord
Het kabinet deelt de opvatting van de Commissie, zoals uiteengezet in het witboek
AI, dat er in het huidige van toepassing zijnde wetgevend kader lacunes zijn die geadresseerd
moeten worden. In aanvulling op de uiteenzetting van de Commissie ziet het kabinet
nog een aantal lacunes. Zo zijn de waarborgen uit de Algemene verordening gegevensbescherming (AVG) logischerwijs niet van toepassing wanneer voor een AI-toepassing geen persoonsgegevens
worden verwerkt. Desalniettemin ziet het kabinet dat een AI-toepassing waarbij geen
of geanonimiseerde persoonsgegevens worden gebruikt weldegelijk impact kan hebben
op burgers en hun fundamentele rechten.
Ook wanneer de AVG wél van toepassing is ziet het kabinet dat de normen daarin niet
altijd voldoende toegesneden zijn op de inzet van AI. Bij de naleving, handhaving
en toepassing van de fundamentele rechten bestaan er bij AI-toepassingen specifieke
kenmerken en risico’s waarop het huidig wetgevend kader, waaronder de AVG en het gelijke
behandelingskader, mogelijk onvoldoende is toegesneden. Conform de door Nederland
bepleitte lerende aanpak tracht het kabinet eventuele lacunes en mogelijke invullingen
daarvan verder in kaart te brengen.
5D. Types eisen
De leden van de CDA-fractie lezen dat Nederland ervoor zal pleiten dat in de ontwikkelfase
van AI wordt toegestaan dat (bijzondere) persoonsgegevens worden verwerkt «voor zover
dat noodzakelijk is om discriminerende effecten tegen te gaan». Kan het kabinet dit
verduidelijken? Met welke waarborgen is dergelijke toestemming omkleed? Hoe en wanneer
is er duidelijkheid over wat er moet gebeuren in situaties waar een AI-toepassing
getraind is met onrechtmatig verkregen data?
Antwoord
Bij AI-toepassingen waarbij gegevens op grote schaal met elkaar worden gecombineerd,
kunnen onbedoeld verbanden worden blootgelegd die een aanwijzing geven over iemands
gezondheid, geloofsovertuiging, seksuele geaardheid of een ander gevoelig persoonsgegeven.
Daarnaast kan het zijn dat modellen die uitsluitend gebruik maken van ogenschijnlijk
objectieve criteria (variabelen), indirect nadelige effecten hebben voor bepaalde
individuen of groepen waarvan het een gegeven is dat die stelselmatig meer of minder
dan gemiddeld scoren op een of meer van deze criteria. Dit zou indirect discriminerende
gevolgen kunnen hebben voor betrokkenen. Een model dat bijvoorbeeld tot doel heeft
om voorspellingen te doen inzake het salaris van een beroepsgroep kan nadelig uitpakken
voor vrouwen, wanneer het zich uitsluitend baseert op variabelen als functieniveau
en anciënniteit. Dit omdat vrouwen in vergelijking met mannen tot nu toe in de regel
op een lager functieniveau werken. Met andere woorden, er bestaat een verkapte correlatie
tussen het functieniveau en het geslacht. Dit voorbeeld heeft betrekking op het geslacht,
maar is evengoed relevant voor bijzondere persoonsgegevens als bedoeld in de AVG.
Een ander voorbeeld betreft de mogelijke correlatie tussen etniciteit en postcodes.
Om deze onbedoelde en ongewenste effecten tegen te gaan kan het juist nodig zijn om
in de ontwikkelfase van AI relevante bijzondere persoonsgegevens te verwerken. Zo
kunnen elementen in het profileringsproces die tot vooroordelen kunnen leiden, worden
geëlimineerd of gecorrigeerd. Gelet op het (wettelijk) verbod op verwerking van bijzondere
persoonsgegevens dient hiervoor bij wet een uitzondering te worden geregeld. Daarbij
zullen strenge eisen aan de verwerking moeten worden gesteld waaronder de voorwaarde
dat dit alleen toegestaan is voor zover dat noodzakelijk is om discriminerende effecten
tegen te gaan.
In het witboek stelt de Commissie voor dat er eisen komen voor het gebruik van trainingsdata.
Op dit punt stelt Nederland dat van belang is dat bij gebruik van trainingsdata steeds
voldaan wordt aan de voorwaarden uit de AVG en/of de Richtlijn inzake gegevensbescherming opsporing en vervolging,
bijvoorbeeld het vereiste dat er voor de verwerking van persoonsgegevens een rechtsgrond
moet zijn. In dit verband wil Nederland dat er ook aandacht is voor situaties waarin
een AI-toepassing getraind is met onrechtmatig verkregen data. Het moet duidelijk
zijn wat de gevolgen zijn voor dergelijke AI-toepassingen. De voorstellen waarmee
de Commissie als follow up op het Witboek AI zal komen, moeten worden afgewacht alvorens
er meer duidelijkheid hierover is.
5E. Adressanten
De leden van de CDA-fractie steunen het kabinet bij het versterken van de positie
van de digitale consument door deze centraal te stellen in het ontwikkelen en reguleren
van B2C-toepassingen van online algoritmes. Het kabinet noemt hiervan verschillende
voorbeelden, zoals transparantieverplichtingen, recht op uitleg, grotere zeggenschap
van consumenten op algoritmes en recht tot bezwaar en rectificatie. Hoe gaat het kabinet
hier concreet werk van maken? Bestaan bijvoorbeeld een agenda en tijdspad om dit te
realiseren? Daarnaast onderzoekt het kabinet hoe de verantwoordelijkheid voor bijvoorbeeld
grote online platforms voor wangebruik van consumentendata vormgegeven kan worden.
Wanneer wordt hier meer over bekend?
Antwoord
Het kabinet hecht belang aan een sterkere positie van de digitale consument en is
zich ervan bewust dat er zowel kansen als risico’s bestaan bij het blootstellen van
consumenten aan online algoritmes. Consumentenbescherming in de online wereld moet
niet onder doen voor bescherming in de offline wereld. De mate van bescherming online
is niet in alle opzichten gelijk aan de bescherming offline. Een eerste stap is om
te inventariseren welke wettelijke verplichtingen vandaag de dag al op online platforms
rusten en uit te zoeken of en zo ja welke hiaten er bestaan in consumentenbescherming,
zoals bijvoorbeeld ten aanzien van transparantieverplichtingen en de verantwoordelijkheid
die een platform heeft voor de aangeboden producten en diensten. Ook het wangebruik
van consumentendata door grote online platforms is hier onderdeel van. In lijn met
de eerder aangenomen motie Moorlag en Buitenweg16 wordt uw Kamer in het najaar hierover geïnformeerd.
Vragen en opmerkingen van de leden van de GroenLinks-fractie
De leden van de GroenLinks-fractie hebben met interesse kennisgenomen van het Witboek
Kunstmatige Intelligentie van de Europese Commissie en de kabinetsreactie daarop.
Zij hebben nog enige vragen hierover.
1.1 Algemene appreciatie ecosysteem van excellentie
De leden van de GroenLinks-fractie vragen het kabinet nader in te gaan op de «lerende
aanpak» die Nederland voorstaat. Bij een leerproces hoort ook het maken van fouten.
Hoe gaat het kabinet zorgen dat die fouten snel worden opgespoord en gecorrigeerd?
Deze leden zijn van mening dat transparantie daarbij van groot belang is. In hoeverre
is het bevorderen van transparantie door middel van de ethische richtsnoeren waar
het kabinet naar verwijst, daarbij voldoende? Overweegt het kabinet om de Europese
Commissie mee te geven dat transparantie over AI-toepassingen wettelijk moet kunnen worden afgedwongen?
Ook vragen deze leden wat het kabinet precies verstaat onder «transparantie» in de
context van AI. Gaat het dan slechts over uitlegbaarheid van algoritmes, of ook over
technische transparantie, zoals het openbaren van de broncode, gebruikte datasets
en trainingsdata? Indien transparantie zich beperkt tot uitlegbaarheid, hoe kan je
je hier als burger toe verhouden? Wordt er over nagedacht of een toezichthouder altijd
toegerust moet zijn om het systeem te kunnen doorgronden, ook op verzoek van individuen
daartoe?
Antwoord
Bij de «lerende aanpak» die het kabinet voorstaat, hoort ook het opsporen en corrigeren
van fouten en het bevorderen van transparantie van AI. Voorbeeld hiervan is in Nederlands
verband het traject dat thans wordt doorlopen met de richtlijnen voor data-analyses
door de overheid die bij brief van 8 oktober 2019 aan uw Kamer zijn aangeboden. Deze
richtlijnen worden momenteel verder uitgewerkt door samen met relevante organisaties in de praktijk met de richtlijnen aan de slag te gaan en deze te toetsen op
hun effectiviteit en uitvoerbaarheid. Hiermee kan worden getoetst of de richtlijnen
behulpzaam zijn bij het voorkomen of corrigeren van fouten en onjuistheden en kunnen
die waar nodig worden aangescherpt. Een belangrijk doel van de richtlijnen is het
bevorderen van transparantie van algoritmen, de werking en toepassing daarvan. Transparantie
is van groot belang vanuit een oogpunt van rechtszekerheid, vertrouwen in verantwoorde
toepassing van AI door de overheid en verantwoording richting controllers, toezichthouders
of rechters. In de richtlijnen worden dan ook eisen gesteld aan de uitlegbaarheid,
toetsbaarheid en auditeerbaarheid van algoritmen en aan de informatievoorziening aan
het publiek. Bij complexe algoritmen, zoals machine learning of deep learning algoritmen,
met een grote hoeveelheid variabelen en neurale lagen kan het zelfs voor experts lastig
zijn om op basis van technische transparantie, het algoritme en de werking daarvan
voldoende te doorgronden. Voor inherent ondoorzichtige modellen zijn wel technieken
ontwikkeld, of in ontwikkeling, om achteraf te achterhalen op welke informatie een
algoritme zijn uitkomst baseert. Tegen deze achtergrond wordt in de richtlijnen de
nadruk gelegd op de uitlegbaarheid van algoritmen, waarbij de focus ligt op het in
begrijpelijke taal kunnen uitleggen van de uitkomsten van data-analyses en hoe deze
tot stand zijn gekomen. Daarmee is uitlegbaarheid naar het publiek in veel gevallen
veelzeggender dan technische transparantie.
Voor een specifiek publiek, zoals ontwikkelaars, kan technische transparantie veelzeggend
zijn. In maart heeft de Staatssecretaris van Binnenlandse Zaken en Koninkrijkrelaties
namens het kabinet een brief naar de Kamer gestuurd over het vrijgeven van de broncode
en het toepassen van het open source principe bij overheidssoftware.17 Het uitgangspunt hierbij is «open, tenzij». Een open broncode kan bijdragen aan meer
technische transparantie en inzichtelijkheid. De brief stelt daarnaast vast dat er
ook gegronde redenen kunnen zijn om een broncode niet vrij te geven, bijvoorbeeld
als de belangen van nationale of openbare veiligheid zich daartegen verzetten of wanneer
de benodigde vertrouwelijke werkwijze van de overheid (denk aan opsporing en toezicht)
wordt geschaad.
De lerende aanpak wordt ook door de NLAIC toegepast, door niet een meerjarenprogramma
te starten en achteraf vast te stellen of het werkt, maar dat met korte feedback al
gedurende de looptijd te doen. Dat is met name van belang voor de praktijk. Hiervoor
moet je de juiste omgeving bieden (bijvoorbeeld in fieldlabs) waarbij op voorhand
duidelijk wordt gemaakt dat onvolkomenheden vaststellen geen schande is maar een sterkte,
waarin de omgeving ook beschermend genoeg is om met onvolkomenheden om te gaan (privacy,
security, perceptie en ook transparantie) en waarin je van het begin af aan multidisciplinair
(technische, wetenschappelijk, sociaaleconomisch, maatschappelijk) én met betrokkenheid
van eindgebruikers (burgers) werkt en dus niet achteraf.
4C. Vaardigheden
De leden van de GroenLinks-fractie steunen de inzet om het versnipperende landschap
van Europese kennisinstellingen op het gebied van AI tegen te gaan en het idee om
een coördinerend «Lighthouse Centre» op te zetten. Is daar al meer over bekend? Dergelijke
coördinatie moet ook voorkomen dat alle lidstaten op overlappende wijze met dezelfde
subthema’s aan de slag gaan. Op welke thema’s zou Nederland zich willen richten?
Antwoord
Qua thema’s is het voor Nederland belangrijk dat de acties van de Commissie aansluiten
bij de in november 2019 door de Nederlandse Organisatie voor Wetenschappelijk Onderzoek
(NWO) uitgebrachte (brede) AI-onderzoeksagenda voor het initiëren van nieuwe onderzoeksprogramma’s
en -instrumenten en (inter)nationale synergie. Deze onderzoeksagenda is gebouwd op
de Nederlandse sterktes zoals het creëren van AI fundamenten, het creëren van AI systemen,
AI mens-systeem interactie en maatschappelijk verantwoord inbedden van AI-systemen.
Daarnaast is het voor Nederland van belang om kennis en vaardigheden rond AI in toepassingsgebieden
te ontwikkelen, zoals bijvoorbeeld de gezondheidszorg, mobiliteit/logistiek, high
tech industry, energie/landbouw/klimaat en veiligheid. Voor de voortgang over het
opzetten van een coördinerend «Lighthouse Centre» verwijzen wij u naar het antwoord
op gelijkaardige vragen van het CDA.
4F. Het stimuleren van het gebruik van AI in de publieke sector
De leden van de GroenLinks-fractie onderschrijven dat AI-toepassingen ook van nut
kunnen zijn in de publieke sector. Zij hebben echter wel grote zorgen over de manier
waarop dit punt (4F) is gepresenteerd in het witboek van de Commissie. Het is, volgens
het witboek, essentieel dat publieke instellingen snel beginnen met het inzetten van
AI-toepassingen. Er wordt niet gerefereerd aan de risico’s hiervan. Daarnaast zijn
deze leden van mening dat, zeker in de publieke sector, het eventueel inzetten van
AI-toepassingen altijd onderdeel moet zijn van een bredere strategie om bepaalde vooraf
gestelde doelstellingen te behalen. We moeten waken voor het inzetten van AI zonder
goede reden, of alleen omdat het arbeidskrachten kan besparen. Is het kabinet bereid
om deze zorgen op te nemen in de kabinetsappreciatie?
Voorts vragen deze leden of het kabinet kan reflecteren op de zorgen dat AI vaak leidt
tot het vergroten van de sociale ongelijkheid. Volgens de Amerikaanse politicologe
Virginia Eubanks heeft dit onder andere te maken met het feit dat datasets per definitie
nooit neutraal zijn. Hoe ziet het kabinet dit?
Antwoord
In de appreciatie onder 4F zal het kabinet nog een keer benadrukken dat het uitgangspunt
is dat voorafgaande aan de inzet van AI altijd de afweging wordt gemaakt of AI in
de betreffende context en voor het betreffende doel het juiste middel is (of dat er
minder ingrijpende middelen zijn waarmee het doel kan worden bereikt). Daarnaast is
het kabinet het met de GroenLinks-fractie eens dat wanneer AI wordt ingezet, dat effecten
kan hebben op fundamentele rechten en sociale verhoudingen. Deze effecten kunnen zowel
negatief als positief zijn. De lerende aanpak die het kabinet voorstaat, is van belang
omdat daarbij continu de vraag gesteld wordt wat de impact van een specifieke toepassing
is op fundamentele rechten en sociale verhoudingen. Hiermee wordt niet vooraf in algemene
zin gesteld dat er wel of geen sprake moet zijn van de inzet van AI, maar wordt in
concrete gevallen en bij concrete toepassingen telkens gekeken hoe AI op een dusdanige
wijze vorm kan krijgen dat kansen worden benut en risico’s voor fundamentele rechten
en sociale verhoudingen kunnen worden geadresseerd.
De leden van de GroenLinks-fractie vragen waarom de kabinetsappreciatie niet ingaat
op punt 4H van het witboek over internationale aspecten van AI? Deze leden delen de
analyse van de Europese Commissie dat Europa een goede positie heeft om met gelijkgezinde
niet-Europese landen op te trekken op dit gebied. Tegelijkertijd vragen deze leden
zich af hoe Europa om zal gaan met niet-gelijkgezinde landen. Zij lezen daar niets
over terug. Is het kabinet bereid om dit punt toe te voegen aan de kabinetsappreciatie
en de Europese Commissie te verzoeken om een strategie uit te werken hoe om te gaan
met bedrijven, producten en diensten van buiten de Europese Unie die op het gebied
van AI niet voldoen aan de Europese benadering?
Antwoord
In de paragraaf «1.2 Algemene appreciatie ecosysteem van vertrouwen» van de kabinetsappreciatie
wordt nader ingegaan op de internationale aspecten van AI. Het kabinet zal nader ingaan
op punt 4H in de kabinetsappreciatie. Zoals aangegeven pleit Nederland ervoor dat
de Commissie het voortouw neemt, daar waar nodig, in het aanpassen van internationale
regelgeving of van bilaterale overeenkomsten tussen de EU met derde landen die aan
AI raken. Dit is van belang aangezien AI-toepassingen veelvuldig uit derde landen de EU binnen zullen komen en AI-toepassingen of
voor AI bedoelde data uit de EU geëxporteerd zullen worden.
In Europa en in internationale netwerken maakt Nederland zich sterk om ervoor te zorgen
dat grondrechten in technologische ontwikkelingen geborgd zijn. Zo neemt Nederland
actief deel aan twee commissies binnen de Raad van Europa die zich bezighouden met
digitalisering en mensenrechten, namelijk de Commissie voor Media en de Informatiesamenleving
en de ad hoc Commissie voor Kunstmatige Intelligentie. De ad hoc Commissie voor Kunstmatige
Intelligentie onderzoekt momenteel de haalbaarheid van een internationaal juridisch
kader voor AI en de Commissie voor Media en Informatiesamenleving bereidt een aanbeveling
voor, die de verdragspartijen ertoe oproept om de impacts van algoritmen op mensenrechten
tijdig en adequaat op te vangen.
Het bespreken van mogelijke aanpassingen van internationale regelgeving ten gevolge
van AI, vindt plaats in diverse fora waar zowel gelijkgezinde niet EU-landen als niet
EU-landen die hele andere opvattingen hebben over AI, aan deelnemen. Die fora zijn
bijvoorbeeld de Wereldhandelsorganisatie (WTO), de International Telecommunications
Union (ITU) of de OESO. De Europese Commissie dient zich in die fora al te verhouden
tot niet gelijkgezinde landen. De strategie van de Europese Commissie wordt daarbij
bepaald door uiteenlopende relevante Europese regelgeving en beleidskeuzes die als
uitgangspunt worden gehanteerd.
5B. Mogelijke aanpassingen van bestaande EU-regelgeving
De leden van de GroenLinks-fractie delen de analyse van de Commissie dat er lacunes
bestaan in het huidige wettelijk kader, met name op het gebied van transparantie,
uitlegbaarheid, herleidbaarheid en menselijk toezicht. Ook verwelkomen zij de kabinetsappreciatie
die het bestaan van dergelijke lacunes erkent. Op welke termijn kan additionele wetgeving
worden verwacht?
Antwoord
Vooralsnog staat een follow-up van het witboek AI gepland voor het eerste kwartaal
van 2021. Dit zal naar verwachting een concretisering bevatten van het ecosysteem
van vertrouwen. Op dit moment kan nog niet gezegd worden of dit een voorstel voor
additionele wetgeving zal bevatten. Voor een uitgebreidere toelichting op de procedure
en te verwachten voorstellen verwijzen wij u naar het antwoord op gelijkaardige vragen
van de VVD-fractie en de CDA-fractie.
5C. Reikwijdte van een toekomstig EU-regelgevingskader
De leden van de GroenLinks-fractie kunnen zich vinden in de twijfels die het kabinet
heeft bij de sector-gebaseerde benadering die de Commissie voorstelt om «hoog-risico»
AI-toepassingen te identificeren. Dit mag er namelijk niet toe leiden dat risico’s
in andere sectoren over het hoofd worden gezien. Tegelijkertijd kan het categoriseren
van toepassingen wel degelijk van nut zijn om een gedifferentieerde behandeling mogelijk
te maken. Zo zou voor bepaalde toepassingen van extreem hoog risico een verbod moeten
worden overwogen. Wanneer kan de Kamer de nadere bezinning op het concretiseren van
de risicobenadering, waar het kabinet aan refereert, tegemoetzien?
Antwoord
Het kabinet onderschrijft de denkwijze van de leden van de GroenLinks-fractie met
betrekking tot de risicobenadering. Om die reden wordt er momenteel interdepartementaal
gewerkt aan een nadere uitwerking van hoe het kabinet een risicobenadering zou willen
vormgeven. Dit proces is in volle gang, het kabinet zal dan ook niet vooruitlopen
op eventuele uitkomsten van dit proces. Het streven is om zoveel als mogelijk aan
te sluiten bij het tijdspad dat de Commissie aanhoudt.
5D. Types eisen
De leden van de GroenLinks-fractie kunnen zich in algemene zin goed vinden in de types
eisen die de Europese Commissie heeft voorgesteld. In de kabinetsreactie staat dat
Nederland ervoor zal pleiten dat in de ontwikkelfase van AI wordt toegestaan dat bijzondere
persoonsgegevens worden verwerkt. Kan het kabinet hier nader op ingaan? Hoe verhoudt
dat zich tot de AVG?
Antwoord
Voor een antwoord op deze vraag verwijzen wij u naar het antwoord op de gelijkaardige
vraag van de CDA-fractie.
Kan het kabinet ook nader ingaan op het Nederlandse standpunt inzake biometrische
identificatie? Het kabinet lijkt te suggereren dat sommige toepassingen van gezichtsherkenning
met gebruik van AI geen hoog risico kennen, terwijl de Europese Commissie stelt dat
alle toepassingen van biometrische identificatie als «hoog-risico» moeten worden aangemerkt.
Kan het kabinet nader ingaan op dit verschil?
Antwoord
Gezichtsherkenning kan op diverse wijzen worden gebruikt, waarbij een groot verschil
kan bestaan in de daarmee gepaard gaande risico’s. Gezichtsherkenning kan bijvoorbeeld
worden gebruikt voor het verkrijgen van toegang tot een smartphone. Het gebruik hiervan
is optioneel. De risico’s bij dergelijke toepassingen zijn gering, bijvoorbeeld ten
aanzien van privacy en vrijheidsrechten. Het kabinet vindt het belangrijk dat het
stempel «hoog risico» niet zonder meer gekoppeld wordt aan een bepaalde techniek,
maar wordt gekoppeld aan toepassingen die daadwerkelijk risicovol zijn. Een goede
definitie en afbakening is daarvoor een randvoorwaarde.
Kan het kabinet ook ingaan op de toepassing van AI voor het produceren van «deepfake»-video’s?
Kan dit automatisch worden aangemerkt als «hoog-risico»? Hoe kijkt het kabinet hiernaar
en is het bereid om in de kabinetsappreciatie de Commissie op te roepen om dit punt
mee te nemen?
Antwoord
Het kabinet vindt het belangrijk dat het stempel «hoog risico» niet zonder meer gekoppeld
wordt aan een bepaalde techniek, maar wordt gekoppeld aan toepassingen die daadwerkelijk
risicovol zijn. Wat betreft «deepfake»-video’s laat de Minister van Binnenlandse Zaken
en Koninkrijkrelaties momenteel een verkenning uitvoeren naar de impact van nieuwe
technieken, waaronder «deepfakes», en de betekenis daarvan voor de aanpak van desinformatie18. Deze verkenning zal na het zomerreces gereed zijn. De samenleving dient weerbaar
te zijn tegen de potentieel verstorende effecten van nieuwe technologieën, zoals deepfake
technieken, die informatie kunnen manipuleren. Het Rathenau Instituut, die deze verkenning
uitvoert, zal aandacht besteden aan deepfake technieken en twee à drie andere technologieën
naar eigen inzicht. Zij zal daarbij o.a. kijken naar de impact van deze technologieën
op de productie en verspreiding van desinformatie.
5F. Naleving en handhaving
De leden van de GroenLinksfractie kunnen zich goed vinden in het voorstel van de Commissie
voor een voorafgaande conformiteitsbeoordeling voor AI-toepassingen met een hoog risico.
Het kabinet schrijft dat het de voorkeur heeft om uit te gaan van reeds bestaande
instrumenten en dat zelfregulering ook een optie kan zijn. Hoe verhoudt dit zich tot
de erkenning dat er lacunes bestaan in het huidige wettelijk kader met betrekking
tot AI? Onder welke omstandigheden vindt het kabinet zelfregulering een optie?
Antwoord
Zelfregulering kan een optie zijn, voor welke toepassingen en situaties dit geldt
dient nader te worden verkend in de nog uit te werken risicobenadering.
5H. Governance vraagstukken
De leden van de GroenLinks-fractie ondersteunen de inzet van de Commissie dat de governancestructuur rond AI op Europees niveau moet zorgen voor de participatie
van alle betrokken stakeholders, inclusief het maatschappelijk middenveld en academici
uit verschillende vakgebieden. Is het kabinet bereid om dit punt ook te benadrukken
in de kabinetsappreciatie? Op welke manier worden Nederlandse stakeholders uit deze
sectoren betrokken in de Europese governancestructuur rond AI?
Antwoord
Ja, het kabinet vindt participatie van alle betrokken stakeholders belangrijk, inclusief
het maatschappelijk middenveld en academici uit verschillende vakgebieden De nationale
AI coalitie vormt hiervoor de basis. De NLAIC (een initiatief van overheid, bedrijfsleven,
onderzoeks- en onderwijsinstellingen en maatschappelijke organisaties) is namens de
diverse Nederlandse stakeholders lid van de European AI Alliance – een forum dat zich bezighoudt met een brede en open discussie over alle aspecten
van de ontwikkeling van artificiële intelligentie en de gevolgen ervan. Daarnaast
neemt de NLAIC actief deel aan het consultatie proces en is zij door middel van haar
EU liaisons en deelname aan diverse klankbordgroepen en is Nederland zeer betrokken
bij de diverse Europese ontwikkelprocessen.
Tenslotte missen de leden van de GroenLinks-fractie, zowel in het Witboek van de Europese
Commissie als in de kabinetsappreciatie daarvan, een bespiegeling op de langeretermijn
effecten van AI. Daarbij valt te denken aan de effecten op de democratie en de rechtsstaat,
op de arbeidsmarkt en economie. Is het kabinet bereid om dit punt op te nemen in de
kabinetsappreciatie en de Commissie op te roepen om de langeretermijneffecten scherp
in beeld te houden en daar ook voortdurend onderzoek naar te doen?
Antwoord
Het kabinet deelt de opvatting van de leden van de Groenlinks-fractie dat het belangrijk
is de langetermijneffecten voor de democratie en de rechtsstaat, op de arbeidsmarkt
en economie mee te nemen. Het is van belang dat kaders voldoende toekomstbestendig
zijn om deze waarden en belangen te borgen. Het kabinet zegt daarom toe dit op te
nemen in de kabinetsappreciatie.
Ondertekenaars
-
, -
, -
, -
, -
, -
Eerste ondertekenaar
P.H. van Meenen, voorzitter van de vaste commissie voor Justitie en Veiligheid -
Mede ondertekenaar
M.C. Burger, adjunct-griffier