Verslag van een schriftelijk overleg : Verslag van een schriftelijk overleg over de geannoteerde agenda informele Telecomraad 23-24 oktober 2023 (Kamerstuk 21501-33-1034)
21 501-33 Raad voor Vervoer, Telecommunicatie en Energie
Nr. 1043
VERSLAG VAN EEN SCHRIFTELIJK OVERLEG
Vastgesteld 30 oktober 2023
De vaste commissie voor Digitale Zaken heeft een aantal vragen en opmerkingen voorgelegd
aan de Minister van Economische Zaken en Klimaat en de Staatssecretaris van Binnenlandse
Zaken en Koninkrijksrelaties over de brief van 6 oktober 2023 over de geannoteerde
agenda informele Telecomraad 23-24 oktober 2023 (Kamerstuk 21 501-33, nr. 1034).
De vragen en opmerkingen zijn op 13 oktober 2023 aan de Minister van Economische Zaken
en Klimaat en de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties voorgelegd.
Bij brief van 20 oktober 2023 zijn de vragen beantwoord.
De voorzitter van de commissie, Valstar
Adjunct-griffier van de commissie, Muller
Inhoudsopgave
I
Vragen en opmerkingen vanuit de fracties en reactie van de bewindspersonen
2
Vragen en opmerkingen van de leden van de VVD-fractie
2
Vragen en opmerkingen van de leden van de D66-fractie
4
Vragen en opmerkingen van de leden van de PVV-fractie
10
Vragen en opmerkingen van de leden van de SP-fractie
12
I Vragen en opmerkingen vanuit de fracties en reactie van de bewindspersonen
Vragen en opmerkingen van de leden van de VVD-fractie
De leden van de VVD-fractie hebben met interesse kennisgenomen van de stukken over
de Telecomraad (Informeel) d.d. 23–24 oktober 2023 (Kamerstuk 21 501-33, nr. 1034). Deze leden hebben nog enkele vragen en opmerkingen.
Het stemt de leden van de VVD-fractie positief dat Nederland het Europees Parlement
wil steunen in haar positie om aanbevelingsalgoritmen als hoog risico aan te willen
merken, conform de motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193). Aangezien er op 25 oktober trilogen gepland staan om akkoorden te bereiken op een
aantal onderwerpen, vragen deze leden of de aanbevelingsalgoritmen een onderwerp van
bespreking zullen zijn bij deze eerstvolgende onderhandeling? Hoe staan de overige
lidstaten tegenover dit onderwerp? Wat is de verwachte uitkomst van de onderhandeling
hierover?
Antwoord kabinet:
De onderhandelingen over de AI-verordening bevinden zich momenteel in de laatste fase,
en omdat er nog geen akkoord is bereikt, liggen alle onderwerpen nog op tafel. Daarmee
ligt ook de vraag over de classificatie van hoog risicosystemen, en de vraag of aanbevelingsalgoritmen
daaronder moeten vallen op tafel. De verschillende onderhandelingsposities zijn in
het belang van de onderhandelingen niet openbaar.
De leden van de VVD-fractie zijn verheugd te lezen dat Nederland zich inzet voor een
mogelijke verdergaande verplichting voor watermerken, die zich ook richt op door Artificiële
Intelligentie (AI) gegenereerde tekst- of beeldmateriaal waarbij gebruik is gemaakt
van auteursrechtelijk materiaal in de trainingsdata, conform de motie van de leden
Dekker-Abdulaziz en Rajkowski (Kamerstuk 30 821, nr. 185).
Het is volgens de leden van de VVD-fractie cruciaal dat een gebruiker die general-purpose
artificial intelligence (GPAI) wil inzetten voor een specifieke hoog-risicotoepassing
toegang heeft tot de benodigde informatie om te voldoen aan de voorschriften van de
AI-verordening. Deze informatie kan alleen worden verkregen als de aanbieder van GPAI
deze verstrekt. Daarom is het noodzakelijk dat de AI-verordening de aanbieders van
GPAI verplicht om dergelijke transparantie te bieden. Geldt er een informatieverplichting
voor deze aanbieders van GPAI aan alle gebruikers of slechts aan gebruikers die GPAI
gebruiken voor een specifieke hoog-risicotoepassing? Waarom is hiervoor gekozen? Welke
essentiële informatie wordt hierbij gedeeld?
Antwoord kabinet:
In de Raadstekst staat dat wanneer GPAI-systemen ingezet kunnen worden voor hoog-risico
toepassing uit de AI-verordening (en dit niet is uitgesloten – zie ook antwoord D66),
er bepaalde eisen gaan gelden. Daarnaast moet de aanbieder van het GPAI-systeem inderdaad
hulp bieden aan partijen die het systeem als een nieuw hoog-risico systeem op de markt
brengen, het als hoog-risico systeem in gebruik nemen of het verwerken in een nieuw
hoog-risico AI-systeem. Deze partijen worden in al deze situaties zélf een hoog-risico
aanbieder (en dus geen gebruiker) van het GPAI-systeem omdat ze het oorspronkelijke
doel van het systeem veranderen. Dit heeft als gevolg dat deze «nieuwe» hoog-risico
aanbieders aan de hoog-risico eisen van de AI-verordening moeten voldoen. Om hen in
staat te stellen aan deze eisen te voldoen, moet de oorspronkelijke aanbieder van
het GPAI-systeem hen helpen en de noodzakelijke informatie verschaffen. Omdat er voor
laag-risico toepassingen geen aanvullende eisen gelden in de AI-verordening, is er
geen aanvullende informatieverplichting richting gebruikers of aanbieders die het
systeem voor laag-risico doeleinden inzetten.
In het artikel is niet in detail opgenomen om welke informatie het gaat, dit kan wel
nog later in meer detail door de Commissie in een uitvoeringshandeling worden vastgelegd.
Het EP wijkt hier enigszins vanaf. In de EP-tekst worden partijen alleen zelf aanbieder
van een «nieuw» hoog-risico AI-systeem als ze het oorspronkelijke GPAI-systeem wezenlijk
(technisch) aanpassen. Als dit gebeurt, dan moet de oorspronkelijke aanbieder van
het GPAI-systeem vergaande assistentie verlenen aan de «nieuwe» hoog-risico aanbieder.
Dit verschilt van de Raadstekst op twee belangrijke punten. In de EP-tekst is het
ten eerste niet mogelijk voor GPAI-aanbieders om hoog-risico gebruik uit te sluiten
en zal deze dus altijd moeten samenwerken met «nieuwe» hoog-risico aanbieders die
het systeem hebben aangepast. Daarnaast is direct gebruik (zonder het systeem aan
te passen) van GPAI-systemen voor hoog-risico toepassingen in de EP-tekst niet gereguleerd.
Hoewel het EP wel eisen stelt aan de Foundation Models achter sommige GPAI-systemen,
is dit volgens het kabinet een lacune die in de uiteindelijke versie van de AI-verordening
wel geadresseerd moet worden. De Raadstekst voorziet hierin, zoals eerder
geschetst.
Hoe verhoudt de Nederlandse positie met betrekking tot GPAI zich tot de posities van
andere lidstaten, zoals Frankrijk en Duitsland?
Antwoord kabinet:
Het kabinet kan niet ingaan op de individuele posities van andere lidstaten, omdat
deze niet openbaar zijn. Deze inzet wordt verder toegelicht in het antwoord op de
vragen van de PVV van dit Schriftelijk Overleg.
De leden van de VVD-fractie vinden het essentieel dat de regels voor AI duidelijk
en praktisch zijn, én toegankelijk voor kleine en/of nieuwe partijen om concurrentie
te bevorderen. Ondersteuning bij de naleving van deze regels is belangrijk, vooral
omdat de omvang van de nieuwe regelgeving nieuwkomers ontmoedigt. Daarnaast zien deze
leden de noodzaak in de maatschappij om de afronding van de AI-verordening niet onnodig
te vertragen. Welke rol zal Nederland innemen als het gaat om het bevorderen van innovatie
en (het verkrijgen en behouden van) een sterke positie in AI-ontwikkelingen? Op welke
maatregelen kunnen zij inzet verwachten van het kabinet in het kader van het borgen
van de uitvoerbaarheid en proportionaliteit voor ondernemers en andere kleine en/of
nieuwe partijen?
Antwoord kabinet:
Het kabinet onderschrijft het belang van duidelijke en praktische regels voor AI voor
bedrijven, met name voor het MKB.
Naast het vastleggen van duidelijke regels in de wetgeving zelf, is het belangrijk
dat AI-aanbieders in Nederland ondersteund worden bij het toepassen van deze regels.
Dit kan op verschillende manieren. Ten eerste biedt de AI-verordening de mogelijkheid
tot het opzetten van regulatory sandboxes. Hierbinnen kunnen toezichthouders samen met marktpartijen werken aan oplossingen
voor compliance-vraagstukken. AI-aanbieders kunnen hier dus hulp krijgen bij het beantwoorden
van lastige vragen over de regelgeving, en toezichthouders kunnen de uitkomsten hiervan
vervolgens gebruiken voor duidelijkere en effectievere toelichting over de regelgeving.
Daarnaast gaat het kabinet zich al tijdens de implementatie van de AI-verordening
inzetten voor duidelijke voorlichting over de regels richting aanbieders en gebruikers
van AI. Zo kunnen deze partijen zich zo goed mogelijk voorbereiden op de inwerkingtreding
van de AI-verordening.
Vragen en opmerkingen van de leden van de D66-fractie
De leden van de D66-fractie hebben met interesse kennisgenomen van de geannoteerde
agenda voor de Telecomraad (Informeel) van 23 en 24 oktober. Deze leden hebben nog
enkele vragen, suggesties en opmerkingen.
Uit de geannoteerde agenda begrijpen de leden van de D66-fractie dat het in de lijn
der verwachting ligt dat er nog eind dit jaar een politiek akkoord ligt over de inhoud
van de AI-verordening. Er zijn nog enkele open eindjes. Zo blijkt dat het Europees
Parlement (EP) de eisen voor Foundation Models direct in de verordening wil opnemen,
daar waar de Raad deze separaat wil opnemen in een uitvoeringshandeling. Kunt u toelichten
wat het verschil is en wat de reden is voor een separate uitvoeringshandeling?
Antwoord kabinet:
Het EP stelt inderdaad directe eisen voor Foundation Models (FMs) voor. Dit zijn AI-modellen
die, volgens de definitie van het EP, met veel computerkracht getraind zijn op een
brede dataset. Deze modellen genereren generieke output en kunnen aangepast worden
om veel verschillende taken te verrichten. Een FM moet verwerkt worden in een AI-systeem
voordat het gebruikt kan worden.
De Raad richt zich op General Purpose AI (GPAI), die in verschillende contexten ingezet
kan worden en in vele andere AI-systemen verwerkt kan worden. Wanneer GPAI-systemen
ook ingezet kunnen en mogen worden voor hoog-risico toepassing uit de AI-verordening,
gaan er eisen gelden. Dit zijn dezelfde type eisen als die voor hoog-risico AI-systemen
(onder andere risicomanagement, databeheer en menselijk toezicht). Omdat de eisen
voor hoog-risico AI-systemen niet één op één toepasbaar zijn op GPAI-systemen, worden
deze eisen voor GPAI gespecificeerd en aangepast in uitvoeringshandelingen zodat tijd
kan worden genomen om de eisen zorgvuldig op te stellen. Wanneer een aanbieder van
een GPAI-systeem het gebruik van het systeem voor hoog-risicotoepassingen verbiedt,
zijn de eisen niet van toepassing. Deze uitsluiting moet wel te goeder trouw zijn.
Een ander discussiepunt blijft het gebruik van biometrische gegevens, zo merken de
leden van de D66-fractie op. De Nederlandse inzet blijft gericht op het toestaan van
uitzonderingen op het gebied van real-time biometrische identificatie. Kunt u aan
de leden van deze fractie zo concreet mogelijk verduidelijken om welke uitzonderingen
dit, volgens de Nederlandse inzet, gaat? Wat zijn precies de proportionele en effectieve
uitzonderingen? Kunt u aangeven hoe «ruim» gewenst is in uw opvatting, aangezien real-time
gezichtsherkenning wat deze leden betreft al te verstrekkend is.
Antwoord kabinet:
In de Raadspositie heeft de Raad gepleit voor een verbod, met uitzonderingen wanneer
dat strikt noodzakelijk is voor:
• Het gericht zoeken van specifieke mogelijke slachtoffers van misdrijven;
• Het voorkomen van een specifieke en substantiële bedreiging van de kritieke infrastructuur,
leven, gezondheid of fysieke veiligheid van natuurlijke personen of het voorkomen
van terroristische aanslagen;
• Het lokaliseren of identificeren van een natuurlijk persoon met als doel het doen
van strafrechtelijk onderzoek, vervolging of de tenuitvoerlegging van een straf voor
de misdrijven waaraan gerefereerd wordt in artikel 2 lid 2 van de Council Framework Decision 2002/584/JHA en waarvoor in de respectievelijke lidstaat een vrijheidsbenemende straf van ten minste
drie jaar kan worden opgelegd dan wel voor andere specifieke misdrijven waarvoor naar
het recht van de respectievelijke lidstaat een vrijheidsbenemende straf of gevangenisstraf
van ten minste 5 jaren kan worden opgelegd.
Volgens de Raadspositie dient bij toepassing van deze uitzonderingen in ieder geval
aan een aantal voorwaarden te worden voldaan. Zo dient steeds de strikte noodzaak
en evenredigheid van de inzet van real-time biometrische identificatie in de publieke
ruimte te worden beoordeeld, waarbij niet alleen wordt gekeken naar de ernst, waarschijnlijkheid
en schaal van de schade als deze technologie niet wordt ingezet, maar ook naar de
ernst, waarschijnlijkheid en schaal van de gevolgen voor rechten en vrijheden bij
de inzet van een dergelijk systeem. Ook dient de inzet van deze systemen gepaard te
gaan met de noodzakelijke en proportionele waarborgen en voorwaarden, in het bijzonder
met betrekking tot de vereiste temporele en geografische beperkingen. Daarnaast dient
een onafhankelijke gerechtelijke of bestuursrechtelijke autoriteit in beginsel voorafgaand
aan de inzet ervan toestemming te geven, en dient de uitzonderingsmogelijkheid te
worden vastgelegd in nationale wetgeving.
Het kabinet staat achter het uitgangspunt van de Raad om real-time biometrische identificatie
in de publieke ruimte voor rechtshandhaving te verbieden. Tegelijk vindt het kabinet
het van belang dat lidstaten ruimte hebben om, indien en voor zover dit strikt noodzakelijk
is voor specifieke gevallen en met de nodige waarborgen omkleed, van het verbod af
te kunnen wijken. Wel acht het kabinet de ruimte voor deze uitzonderingen in de Raadstekst
op dit moment in een drietal gevallen nog te breed geformuleerd. Tijdens de triloog
zet Nederland zich er daarom voor in om bepaalde uitzonderingen verder af te bakenen.
Zo heeft Nederland zich uitgesproken voor het behouden van het vereiste van een «imminente»
dreiging van het leven van natuurlijke personen, en voor het verwijderen van de uitzondering
voor een bedreiging van «gezondheid» (art 5 (1) (d) sub 2). Tevens heeft het kabinet
gepleit voor het verwijderen van het laatste deel van de uitzondering voor de inzet
van real-time biometrische identificatie (in art 5 (1) (d) sub 3). Dit betreft een
uitzondering voor gebruik van real-time biometrische identificatie indien er sprake
is van een misdrijf waar een straf van ten minste vijf jaar voor opgelegd kan worden.
Omdat strafmaat (grotendeels) een nationale aangelegenheid is, kan hierdoor in landen
waar (in de toekomst) bijvoorbeeld een specifieke seksuele geaardheid gezien wordt
als een misdrijf geen real time biometrische identificatie ingezet worden voor opsporing
of vervolging.
Daarnaast lezen de leden van de D66-fractie dat het EP voorspellende algoritmes voor
bijvoorbeeld de politie wilt verbieden. Deze leden staan hier volledig achter en hebben
aan de Minister van Justitie & Veiligheid ook vragen hierover gesteld. Kunt u toezeggen
om dit standpunt proactief kenbaar te maken in de onderhandelingen?
Antwoord kabinet:
Het kabinet ziet evenals het Europees Parlement dat er bepaalde risico’s voor de mensenrechten
verbonden zijn aan de inzet van «voorspellende algoritmes» zoals de leden van de D66-fractie
het noemen.1
Het kabinet is echter geen voorstander van het volledig verbieden van deze systemen
en het gebruik ervan, omdat systemen zoals risicobeoordelingen – wanneer deze met
voldoende waarborgen worden omkleed – op een rechtvaardige manier kunnen worden ingezet,
en van grote toegevoegde waarde kunnen zijn voor de taakuitvoering van diverse overheidsorganisaties.
Het kabinet zet zich er daarom voor in dat al deze systemen worden toegevoegd aan
de hoog risico categorie. Dat betekent dat ten opzichte van de Raadstekstdeze hoog
risico categorie fors zou worden uitgebreid.
Wat betreft het toezicht geeft het kabinet aan dat het mogelijk moet zijn om twee
of meer toezichthouders te benoemen voor de verschillende hoog-risico toepassingen
in de AI-verordening. De leden van de D66-fractie willen graag van u weten wat de
redenering hiervoor is en of dit er niet toe leidt dat verschillende toezichthouders
naar elkaar gaan wijzen. Welke toezichthouder, behalve de Autoriteit Persoonsgegevens
(AP), zou volgens u nog meer met verantwoordelijkheden op dit gebied worden belast?
Antwoord kabinet:
Het kabinet vindt het belangrijk om meerdere (sectorale) toezichthouders te betrekken
bij het toezicht op de AI-verordening, aangezien deze over de ontwikkeling en gebruik
van AI in uiteenlopende gebieden gaan. Bij het controleren of aan de eisen van de
AI-verordening wordt voldaan in hoog-risico toepassingsgebieden is domein-specifieke
kennis noodzakelijk om de risico’s van het gebruik van AI-systemen te kunnen beoordelen
in de context waarin ze worden toegepast in combinatie met specialistische kennis
van de algoritmen en bijvoorbeeld gegevensbeheer. Denk bijvoorbeeld aan toezicht op
de inzet van AI-systemen voor triage in een ziekenhuis, of het gebruik van AI ter
ondersteuning van rechtspraak.
De inzet van AI als systeemtechnologie zal naar verwachting van het kabinet als gevolg
hebben dat een groot aantal toezichthouders te maken gaat krijgen – voor zover dat
niet al het geval is – met de inzet van AI in het domein waarop zij toezicht houden.
Goede samenwerking tussen toezichthouders is nodig, zodat zij gebruik kunnen maken
van elkaars expertise, gezamenlijk risico’s kunnen signaleren» analyseren en aan normuitleg
kunnen doen. Het kabinet heeft een overleg met alle digitale toezichthouders geïnitieerd
om te zorgen voor afstemming tussen deze toezichthouders. Hoe het toezicht precies
wordt ingericht, hangt af van de uiteindelijke tekst van de AI-verordening. Dit gebeurt
via Nederlandse wetgeving waarmee de AI-verordening wordt geïmplementeerd en kaders
worden ingericht voor het toezicht.
Verder constateren de leden van de D66-fractie dat uit de geannoteerde agenda blijkt
dat de inzet om burgers proactief te informeren bij het gebruik van een hoog-risico
algoritme door een overheidsorganisatie, de Raadstekst niet heeft gehaald. In de brief
schrijft de Staatssecretaris dat er wel «een bredere verplichting is voorgesteld».
Kan zij toelichten welke verplichting dit dan is?
Antwoord kabinet:
Het Europees Parlement heeft in haar positie op de AI-verordening voorgesteld om verplicht
te stellen dat gebruikers van hoog-risico AI-systemen (bijlage III) die beslissingen
nemen of helpen bij het nemen van beslissingen met betrekking tot natuurlijke personen
deze personen ervan informeren dat het hoog-risico AI-systeem is gebruikt (artikel
29 lid 6 bis). De natuurlijke persoon zou dan worden geïnformeerd over het doel en
het soort besluitvorming waarvoor het hoog-risico AI-systeem wordt gebruikt. Daarnaast
wordt de natuurlijke persoon gewezen op het recht op een uitleg (artikel 68 quater).
Hierbij wordt geen onderscheid gemaakt tussen publieke of private organisaties als
gebruikers. NL blijft zich inzetten voor een notificatieplicht tijdens de triloog,
conform de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987).
Tenslotte, de leden van de D66-fractie zijn blij om te lezen dat vier verschillende
moties (mede namens D66) over de Nederlandse inzet bij de triloogonderhandelingen
over de AI-verordening in de onderhandelingen zijn besproken. Wat betreft de inzet
rond het watermerken van door AI gegenereerde teksten of beelden wordt aangegeven
dat de verordening stelt dat het verplicht wordt voor gebruikers om te vermelden dat
de content kunstmatig gegenereerd is. Hoewel dit een goede eerste stap is, is dit
niet hetzelfde als een watermerk in het materiaal zelf. Want bij enkel een vermelding
kan het gegenereerde materiaal door een derde partij worden gebruikt, zonder het te vermelden. In hoeverre wordt een volgende gebruiker opnieuw verplicht om kenbaar te maken dat het kunstmatig is gegenereerd? En ligt dan de schuld
bij iedereen die het daarna hergebruikt of alleen bij degene die als eerste verzuimde
de vermelding te maken? Kan worden toegelicht in hoeverre het kabinet het letterlijke
dictum onder de aandacht gaat brengen bij de onderhandelingen? Kunt u daarbij toelichten
in hoeverre creatieve makers, zoals filmmakers of schrijvers, met deze verordening
beter beschermd zijn in hun werk, gelet op de stakingen die recentelijk in Hollywood
plaatsvonden? Kunt u toelichten hoe deze wetgeving daarop toeziet?
Antwoord kabinet:
Overeenkomstig het dictum van de motie en zoals in de geannoteerde agenda is aangegeven,
heeft het kabinet tijdens de onderhandelingen van de AI-verordening bij het Spaanse
Raadsvoorzitterschap kunstmatig gegenereerde content waarbij auteursrechtelijke bronnen
zijn gebruikt van een watermerk te voorzien, onder de aandacht gebracht. De discussie
hierover loopt echter nog.
De D66 leden stellen een belangrijke vraag over de bescherming van creatieve makers.
Er is veel maatschappelijke aandacht voor dit onderwerp, omdat voor de training van
AI-systemen gebruik kan worden gemaakt van auteursrechtelijk beschermd werk, waarbij
de vraag is of dit in alle gevallen rechtmatig is.2 Er loopt inmiddels in het buitenland een aantal rechtszaken, met als gevolg dat de
rechter in staat wordt gesteld om hier een uitspraak over te doen.
De AI-verordening richt zich op de risico’s van AI-systemen voor mensenrechten, veiligheid
en gezondheid. Het doel is daarbij niet primair het beschermen van het auteursrecht,
maar het is wel belangrijk om te vermelden dat de AI-verordening geen afbreuk doet
aan het bestaande juridische kader voor het auteursrecht. Makers die niet willen dat
hun auteursrechtelijk beschermde werken worden gebruikt om AI te trainen kunnen dat
recht voorbehouden. Dan is hun voorafgaande toestemming vereist en daaraan kunnen
voorwaarden zoals betaling van een vergoeding worden verbonden. De EU-richtlijn auteursrecht
in de digitale eengemaakte markt, waarop de uitzondering voor tekst- en datamining
is gebaseerd, wordt in 2026 geëvalueerd.
De leden van de D66-fractie lezen dat in de verordening over het bestrijden van kinderpornografisch
materiaal (CSAM) wordt voorgesteld om AI te benutten om chatberichten te scannen.
In hoeverre is deze techniek expliciet onderdeel van de AI-verordening en in hoeverre
wordt dit gekenmerkt als «hoog-risico» algoritme? Deelt u dan ook de opvatting dat
er mensenrechtentoetsen moeten worden gedaan, voordat deze techniek kan worden gebruikt?
Kunt u toezeggen dat zij zich middels de onderhandelingen in de AI-verordening zal
inzetten voor het niet vereisen van deze vorm van AI voor overheden?
Antwoord kabinet:
In de AI-verordening, zowel in de Raadstekst als die van het Europees Parlement, wordt
(op dit moment) deze techniek niet expliciet opgenomen in de lijst van hoog risico
AI-systemen. Het kabinet is van mening dat de discussie over het al dan niet reguleren
van scannen van communicatie en of daarvoor een mensenrechtentoets moet worden gedaan
technologieneutraal gevoerd moet worden, dit kan in theorie namelijk ook op andere
manieren gedaan worden dan door de inzet van een AI-systeem. Binnen de AI-verordening
wordt de inzet van geen enkel AI-systeem vereist voor overheden of wat voor partijen
dan ook. Het kabinet is ook niet voornemens om binnen de onderhandelingen in te zetten
op het vereisen van de inzet van AI op welk terrein dan ook.
Over de inzet ten aanzien van de CSAM-verordening is uw Kamer geinformeerd via de
Geannoteerde Agenda voor de JBZ-raad op 19 en 20 oktober3, het SO4 dat hier voorafgaand aan heeft plaatsgevonden en het tweeminutendebat dat plaatsvond
op 18 oktober jl. (Handelingen II 2023/24, nr. 14)
Uit fysieke en gedragsgegevens zoals oog-, hoofd- en lichaamsbewegingen en hartslag
en breinactiviteit die via Extended Reality (XR)-apparaten kunnen worden verzameld,
kan zeer intieme informatie worden afgeleid. De combinatie van de Algemene verordening
gegevensbescherming (AVG), de AI-verordening, en de Digital Services Act (DSA), levert
zeker een bescherming op tegen bepaalde typen analyse en toepassing van data. Als
grootschalige dataverzameling echter voortduurt, bestaat er het risico op misbruik
door doelverschuiving en manipulatie, ook als dit bij wet verboden wordt. Een optie
om de privacy van XR-gebruikers beter te beschermen is om het begrip «biometrische
gegevens» te herdefiniëren, zoals het EP voorstelt in de context van de AI-verordening.
Deze definitie komt echter ook terug in de AVG en de daaraan gekoppelde DSA, dus het
verdient aanbeveling om naar mogelijkheden te zoeken ook daar de definitie te verruimen.
Hiermee zou een groter deel van de fysieke en gedragsgegevens die via XR verzameld
kunnen worden, zoals pupilreflexen en neurodata, een bijzondere bescherming krijgen.
Hoe kijkt het kabinet hiernaar, en stemt u toe om dit mee te nemen in de onderhandelingen
in Brussel?
Antwoord kabinet:
Het kabinet steunt de amendementen van het EP om de definitiebepaling van «biometric
data» te harmoniseren met eerder vastgelegde definitiebepalingen van «biometric data»,
zoals opgenomen in de AVG (Algemene Verordening Gegevensbescherming)5, Verordening 2018/17256 en de Richtlijn 2016/6807. Het kabinet ziet dat de uiterst gevoelige aard van de gegevens die bij gebruik van
XR worden verwerkt betekent dat strenge eisen aan het rechtmatig en zorgvuldig gebruik
van deze gegevens noodzakelijk zijn. Daarbij hecht het kabinet eraan om op te merken
dat in het kader van een WODC-onderzoek naar de regulering van immersieve technologieën
(ook wel XR-technologieën) in opdracht van het kabinet nadrukkelijk aandacht is besteed
aan de vraag of huidige wetgeving goed is toegerust om om te gaan met de privacyrisico’s
van deze technologieën. Uw Kamer heeft in juni 2023 de beleidsreactie ontvangen naar
aanleiding van dat onderzoek.8 In die beleidsreactie concluderen de Minister van Justitie en Veiligheid en de Minister
voor Rechtsbescherming in lijn met dit onderzoek dat de huidige regelgeving, en in
het bijzonder ook de regelgeving die ziet op de privacybescherming, goed is toegerust
om om te gaan met de risico’s die gepaard gaan met de opkomst van deze technologieën.
Zo is de AVG zodanig technologieneutraal dat daarmee ook de bescherming van persoonsgegevens
in XR waaronder ook fysieke gegevens over pupilreflexen, neurodata en gedragsgegevens,
goed worden gereguleerd. Het is bij dit alles vanzelfsprekend van groot belang dat
het juridische kader in de praktijk goed wordt nageleefd. Het houden van toezicht
op en het handhaven van de rechtmatigheid van gegevensverwerkingen in de private sector
is echter geen taak van het kabinet, maar van de toezichthouder. Deze is onafhankelijk
en heeft een ruim mandaat en uitgebreide bevoegdheden om te onderzoeken of partijen
voldoen aan hun verplichtingen uit de AVG.
Vragen en opmerkingen van de leden van de PVV-fractie
De leden van de PVV-fractie hebben kennisgenomen van de stukken en hebben enkele vragen
over de Nederlandse inzet bij de triloog-onderhandelingen over de AI-Act en in het
bijzonder over de beoogde bepalingen aangaande GPAI en de zogeheten Foundation Models.
In de geannoteerde agenda kunnen de leden van de PVV-fractie lezen dat Nederland op
bovenstaande onderwerpen actief een standpunt naar voren zal gaan brengen om de Raadspositie
te beïnvloeden. Of dit een goede ontwikkeling is valt voor deze leden niet te controleren,
omdat de Nederlandse standpunten niet helder worden benoemd in de brief. Enerzijds
wordt er gewezen op de noodzaak tot het beperken van risico’s, anderzijds wordt het
gevaar benoemd dat regulering kan leiden tot beperking van de innovatiekracht. Is
het kabinet op de hoogte van de non-paper «General Purpose Artificial Intelligence
(GPAI) and Foundation Models in the AI Act» dat Duitsland begin september heeft ingebracht
in deze discussie? Zo ja, kunt u hierop ingaan en aangeven op welke punten u het eens
bent met Duitsland en op welke punten niet? Deze leden zouden graag zien dat Nederland
aansluit bij de inzet van Duitsland op het gebied van GPAI en Foundation Models. Is
het kabinet daartoe bereid? Deze leden vinden het veel te vroeg om via regelgeving
deze technieken te beperken en elke inperking zal onherroepelijk leiden tot een rem
op innovatie en hiermee Nederlandse en Europese burgers en bedrijven op achterstand
zetten ten opzichte van de rest van de wereld. Dat is voor de leden van deze fractie
onwenselijk.
Antwoord kabinet:
De onderhandelingen over de AI-verordening zijn nu in de laatste fase beland (triloog)
en dus onderhandelt het Raadsvoorzitterschap namens de lidstaten. De stukken waar
de PVV aan refereert zijn ons bekend. De verschillende onderhandelingsposities zijn
in het belang van de onderhandelingen niet openbaar. Het is het kabinet bekend dat
verschillende lidstaten op informele wijze hun voorlopig standpunt hebben gedeeld,
al dan niet schriftelijk. Hieronder volgt een toelichting van de standpunten van het
kabinet zoals genoemd in de Geannoteerde Agenda.
Ten eerste heeft het kabinet een voorkeur voor de definitie van general purpose AI
(GPAI) uit de Raadstekst omdat daarin de nadruk ligt op datgene waarvoor het systeem
of model kan worden ingezet, in plaats van het technische model zelf. Dat laatste
is wel het geval in de definitie van Foundation Models (FMs) in de EP-tekst. Het kabinet
vindt dat dit minder toekomstbestendig is, omdat er geen rekening wordt gehouden met
technologische ontwikkelingen van deze modellen. Ook ziet het kabinet dat aan sommige
eisen voor FM, zoals het mitigeren van risico’s, effectiever uitvoering kan worden
gegeven op het niveau van het specifieke (GP)AI-systeem waarin het FM is verwerkt.
Tegelijkertijd ziet het kabinet een ontwikkeling waarin FM en complexe GPAI-systemen
een steeds belangrijkere rol spelen in de ontwikkelketen van AI waarin wordt voortgebouwd
op FM en GPAI om allerlei AI-systemen te maken, en de toepassing ervan in de maatschappij.
Daarom wil het kabinet inzetten op extra transparantie in deze ontwikkelketen om verantwoorde
ontwikkeling en inzet te versterken. Toegang tot informatie over een systeem of model
maakt het voor andere AI-ontwikkelaars makkelijker om op een verantwoorde manier op
deze systemen voort te bouwen. Versterkte transparantie leidt volgens het kabinet
niet tot een rem op innovatie hoger in de keten, terwijl het innovatie lager in de
keten vergemakkelijkt.
Ten slotte vindt het kabinet dat sommige complexere GPAI-systemen voor risico’s kunnen
zorgen ongeacht binnen welke context ze worden ingezet. Gezien de terechte maatschappelijke
onrust over dergelijke systemen, vindt het kabinet het belangrijk dat er ook eisen
aan deze systemen of eventueel de achterliggende modellen worden gesteld. Het is daarbij
wel van belang dat de definitie(s) van GPAI en/of FMs duidelijk is, eisen toekomstbestendig
zijn en innovatie niet onnodig belemmerd wordt. Gedacht kan worden aan monitoring
van de ontwikkelingen en verplichte zelfregulering via codes of conduct, of aan externe audits of controles door toezichthouders.
Als het Spaanse voorzitterschap, de Commissie of andere lidstaten met aanvullende
voorstellen komen, zal het kabinet kijken of het deze kan steunen en met deze lidstaten
kan samenwerken in discussies over de Raadspositie voor de onderhandelingen met het
Europees Parlement in de triloog. Het kabinet zal daarbij bekijken of zulke voorstellen
die in de triloogfase worden besproken bij het Nederlandse standpunt aansluiten.
Vragen en opmerkingen van de leden van de SP-fractie
De leden van de SP-fractie hebben kennisgenomen van de geannoteerde agenda van de
informele Telecomraad die op 23 en 24 oktober plaats zal vinden. Deze leden hebben
hier enkele vragen over.
De leden van de SP-fractie lezen onder het kopje «Verordening Raamwerk voor een Europese
Digitale Identiteit (herziening eIDAS-verordening)» dat de zorgen van de Kamer die
tijdens het interpellatiedebat-Leijten op 16 februari jl. (Handelingen II 2022/23,
nr. 54, items 6 en 9) zijn uitgesproken de kern hebben gevormd van het standpunt dat wordt uitgedragen
in Brussel. Deze uitspraak verbaast deze leden, aangezien het hoofdpunt van de interpellatie
was dat de Staatssecretaris BZK de wens van de Kamer negeerde en juist instemde met
het voorstel voor een Europese digitale identiteit. Hoe kan de kern van het Nederlands
standpunt op dit onderwerp gebaseerd zijn op de zorgen en kritiek van de Kamer terwijl
Nederland wel instemt met het voorstel? Is dat niet tegenstrijdig?
Antwoord kabinet:
Uw Kamer heeft eerder haar zorgen geuit en gevraagd om inzet op passende waarborgen
in het voorstel. Zo heeft u onder meer gevraagd om een Europees uniek en persistent
identificatienummer te voorkomen, in te zetten op het gebruik van open source, de
vrijwilligheid van het gebruik van wallets te waarborgen en de verdere verwerking
van walletgegevens te voorkomen in de vorm van een expliciet verhandelverbod in het
voorstel. Het kabinet heeft zich hier zowel in de Raadsonderhandelingen als in de
triloogonderhandelingen voortdurend hard voor gemaakt. Daarmee vormen de zorgen van
Uw Kamer de kern van het Nederlandse standpunt.
Ook hebben de leden van de deze fractie een aantal vragen gebaseerd op de beantwoording
van de schriftelijke inbreng over de formele Telecomraad van 2 juni 2023 (Kamerstuk
21 501-33, nr. 1035). Deze leden lezen dat het nog onduidelijk is of het expliciete handelsverbod in
de tekst wordt opgenomen. Wanneer verwacht u hier duidelijkheid over te krijgen?
Antwoord kabinet:
De triloogonderhandelingen lopen nog. Zodra de trilogen zijn afgerond en de drie instellingen
tot een politiek akkoord zijn gekomen, wordt aan Coreper de definitieve compromistekst
voorgelegd met het oog op bekrachtiging daarvan door de lidstaten in de Raad. Op dat
moment zal duidelijk worden of er een expliciet verhandelverbod in de definitieve
compromistekst is opgenomen. Aan uw Kamer is toegezegd dat het kabinet ernaar streeft
om u voorafgaand aan besluitvorming in Coreper hierover te informeren.
Zal Nederland tegen het raamwerk voor een Europese Digitale Identiteit stemmen als
er geen expliciet handelsverbod komt?
Antwoord kabinet:
Het Kabinet zal zich, wanneer er een definitief compromisvoorstel is, beraden over
de uitkomst van de triloog.
Zoals eerder aan uw Kamer gemeld, blijft de Staatssecretaris zich maximaal inzetten
voor een expliciet verhandelverbod. De Staatssecretaris heeft de zorgen van uw Kamer
daarom ook uitgesproken in de Telecomraad van december 2022 (Kamerstuk 21 501-33, nr. 1001), toen het onderhandelingsmandaat van het Voorzitterschap voor de triloog werd vastgesteld,
en in de Telecomraad van juni jl. tijdens de terugkoppeling van de trilogen door het
Zweedse Voorzitterschap (Kamerstuk 21 501-33, nr. 1029).
De leden van de SP-fractie lezen onder het kopje «Trilooginzet Artificial Intelligence
Act (AIA) & uitvoering moties» dat het voorstel gedaan in de motie van het lid Leijten
(Kamerstuk 21 501-33, nr. 987) de Raadstekst niet heeft gehaald. Dat betreuren deze leden, aangezien het van belang
is dat burgers weten wanneer beslissingen die over hun gemaakt zijn door een algoritme
of AI-systeem zijn gemaakt, om hiermee die beslissingen te kunnen controleren. Graag
zien zij dat u zich hard maakt voor het voorstel in de motie van het lid Leijten.
Kunt u dat toezeggen? Zult u de Kamer uitgebreid kunnen informeren over een compromisvoorstel
wanneer daaraan gewerkt wordt?
Antwoord kabinet:
Het kabinet onderschrijft het belang dat burgers weten wanneer er sprake is van beslissingen
die over hen worden gemaakt met behulp van een algoritme of AI-systeem. Ook voordat
de motie van het lid Leijten werd aangenomen (Handelingen II 2022/23, nr. 30, item 11) heeft de regering zich hier tijdens de onderhandelingen in de Raad voor hard gemaakt.
De onderhandelingen van de AI-verordening zijn nu in de laatste fase beland (triloog)
en dus onderhandelt het Raadsvoorzitterschap namens de lidstaten. De verschillende
onderhandelingsposities zijn in het belang van de onderhandelingen niet openbaar.
Zoals in de Geannoteerde Agenda aangegeven blijft het kabinet zich ook in deze laatste
fase van de onderhandelingen voor een notificatieplicht inzetten, conform de motie
van het lid Leijten (Kamerstuk 21 501-33, nr. 987).
Ook lezen de leden dat de Raad tegen het voorstel van het EP is over een volledig
verbod op real-time biometrische identificatie op afstand in de publieke ruimte voor
de rechtshandhaving. Zou u verder kunnen toelichten waarom de Raad tegen dit voorstel
is, welke uitzonderingen de Raad graag wil, en welke kritiekpunten het kabinet heeft
op de argumenten van het EP en de Raad?
Antwoord kabinet:
Zoals is aangegeven bij de beantwoording van de vraag van de leden van de D66-fractie,
heeft de Raad in de Raadspositie gepleit voor een verbod, met uitzonderingen wanneer
dat strikt noodzakelijk is voor:
• Het gericht zoeken van specifieke mogelijke slachtoffers van misdrijven;
• Het voorkomen van een specifieke en substantiële bedreiging van de kritieke infrastructuur,
leven, gezondheid of fysieke veiligheid van natuurlijke personen of het voorkomen
van terroristische aanslagen;
• Het lokaliseren of identificeren van een natuurlijk persoon met als doel het doen
van strafrechtelijk onderzoek, vervolging of de tenuitvoerlegging van een straf voor
de misdrijven waaraan gerefereerd wordt in artikel 2 lid 2 van de Council Framework Decision 2002/584/JHA en waarvoor in de respectievelijke lidstaat een vrijheidsbenemende straf van ten minste
drie jaar kan worden opgelegd dan wel voor andere specifieke misdrijven waarvoor naar
het recht van de respectievelijke lidstaat een vrijheidsbenemende straf of gevangenisstraf
van ten minste 5 jaren kan worden opgelegd.
Volgens de Raadspositie dient bij toepassing van deze uitzonderingen in ieder geval
aan een aantal voorwaarden te worden voldaan. Zo dient steeds de strikte noodzaak
en evenredigheid van de inzet van real-time biometrische identificatie in de publieke
ruimte te worden beoordeeld, waarbij niet alleen wordt gekeken naar de ernst, waarschijnlijkheid
en schaal van de schade als deze technologie niet wordt ingezet, maar ook naar de
ernst, waarschijnlijkheid en schaal van de gevolgen voor rechten en vrijheden bij
de inzet van een dergelijk systeem. Ook dient de inzet van deze systemen gepaard te
gaan met de noodzakelijke en proportionele waarborgen en voorwaarden, in het bijzonder
met betrekking tot de vereiste temporele en geografische beperkingen. Daarnaast dient
een onafhankelijke gerechtelijke of bestuursrechtelijke autoriteit in beginsel voorafgaand
aan de inzet ervan toestemming te geven, en dient de uitzonderingsmogelijkheid te
worden vastgelegd in nationale wetgeving.
Het kabinet staat achter het uitgangspunt van de Raad om real-time biometrische identificatie
in de publieke ruimte voor rechtshandhaving te verbieden. Tegelijk vindt het kabinet
het van belang dat lidstaten ruimte hebben om, indien en voor zover dit strikt noodzakelijk
is voor specifieke gevallen en met de nodige waarborgen omkleed, van het verbod af
te kunnen wijken. Wel acht het kabinet de ruimte voor deze uitzonderingen in de Raadstekst
op dit moment in een drietal gevallen nog te breed geformuleerd. Tijdens de triloog
zet Nederland zich er daarom voor in om bepaalde uitzonderingen verder af te bakenen.
Zo heeft Nederland zich uitgesproken voor het behouden van het vereiste van een «imminente»
dreiging van het leven van natuurlijke personen, en voor het verwijderen van de uitzondering
voor een bedreiging van «gezondheid» (art 5 (1) (d) sub 2). Tevens heeft het kabinet
gepleit voor het verwijderen van het laatste deel van de uitzondering voor de inzet
van real-time biometrische identificatie (in art 5 (1) (d) sub 3). Dit betreft een
uitzondering voor gebruik van real-time biometrische identificatie indien er sprake
is van een misdrijf waar een straf van ten minste vijf jaar voor opgelegd kan worden.
Omdat strafmaat (grotendeels) een nationale aangelegenheid is, kan hierdoor in landen
waar (in de toekomst) bijvoorbeeld een specifieke seksuele geaardheid gezien wordt
als een misdrijf geen real time biometrische identificatie ingezet worden voor opsporing
of vervolging.
Ondertekenaars
-
Eerste ondertekenaar
P.J. Valstar, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
S.R. Muller, adjunct-griffier