Brief regering : Geannoteerde agenda informele Telecomraad 23-24 oktober 2023
21 501-33 Raad voor Vervoer, Telecommunicatie en Energie
Nr. 1034
BRIEF VAN DE MINISTER VAN ECONOMISCHE ZAKEN EN KLIMAAT
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 6 oktober 2023
Op 23 en 24 oktober 2023 vindt de informele Telecomraad plaats in Leòn, Spanje. Bijgevoegd
bij deze brief vindt u, mede namens de Staatssecretaris Koninkrijksrelaties en Digitalisering,
de geannoteerde agenda met daarin een beschrijving van het discussiepunt en de Nederlandse
inzet.
Middels deze geannoteerde agenda ontvangt u tevens een voortgangsrapportage van de
interoperabiliteitverordening en een voortgangsrapportage voor de verordening raamwerk
voor een Europese Digitale Identiteit (herziening eIDAS-verordening). Tevens wordt
u geïnformeerd over de trilooginzet voor de Artifical Intelligence (AI) Act en vindt
u een toelichting op de uitvoering van de motie gesprekken met organisaties over beperken
risico’s AI, de motie ontwrichtende aanbevelingsalgoritmes en de motie watermerken
(allen Rajkowski en Dekker-Abdulaziz). Tot slot ontvangt u ook de appreciatie van
het raadsbesluit over de World Radio Conference en een appreciaties van de Mededeling
Web 4.0 (Metaverse).
Als bijlage bij deze brief treft u tevens de kwartaalrapportage lopende EU-onderhandelingen
digitale dossiers aan tot en met het tweede kwartaal van 2023.
De Minister van Economische Zaken en Klimaat,
M.A.M. Adriaansens
Toekomst van de connectiviteitssector
Beleidsdebat
In april heeft de Europese Commissie een uitgebreide consultatie gehouden over mogelijke
aanpassingen in het Europese telecombeleid. Veel aandacht ging daarbij uit naar de
wens van grote telecombedrijven om een heffing te kunnen vragen aan internetbedrijven.
Het gaat echter om een bredere agenda dan alleen de internetheffing, zoals het verminderen
van verplichtingen voor grote telecombedrijven om kleinere concurrenten toe te laten
op hun netwerk, het stimuleren van grote, pan-Europese telecomkampioenen en meer Europese
coördinatie bij het beleid ten aanzien van frequenties. Deze onderwerpen zijn binnen
Europa controversieel. Verantwoordelijk Eurocommissaris Breton heeft voorstellen aangekondigd.
Het is nog niet bekend waneer de Commissie deze voorstellen zal presenteren.
Nederlandse positie
Nederland en veel andere lidstaten zijn terughoudend ten aanzien van de beleidsrichtingen
die werden verkend in de consultatie in mei 2023. Nederland heeft op deze consultatie
gereageerd (Kamerstuk 21 501-33, nr. 1029). Ten aanzien van de internetheffing is een debat ontstaan, Nederland heeft zich
met andere lidstaten waaronder Duitsland tegen uitgesproken. Een brede groep van stakeholders,
van consumentenorganisaties, digitale-rechten vertegenwoordigers, mediabedrijven,
telecomtoezichthouders en internetbedrijven heeft via de consultatie aangegeven dat
een internetheffing negatieve gevolgen heeft voor het open internet en de Europese
digitalisering. Nederland heeft een onderzoek laten doen door Oxera (februari 2023)
wat de Nederlandse positie heeft geïnformeerd.
Het kabinet heeft ook zorgen over de bredere agenda waar de Commissie aan werkt, die
een beweging lijkt in te zetten die meer gericht is op het beschermen van belangen
van grote Europese telecombedrijven en minder op de consument. Het kabinet is er voorstander
van om hoge ambities te stellen ten aanzien van glasvezel en 5G voor alle lidstaten,
en is van oordeel dat een focus op grote telecombedrijven niet de achterstanden van
sommige lidstaten oplost en mogelijk kan verergeren, terwijl het de goede prestaties
van andere lidstaten juist kan ondermijnen. Dit is ook uit geopolitiek oogpunt niet
wenselijk. Nederland denkt constructief mee over manieren om voor 2030 in alle lidstaten
hoogwaardige en betaalbare netwerken beschikbaar te maken op basis van goede feitelijke
analyses per lidstaat naar de oorzaken van eventuele achterstanden en oplossingen.
Krachtenveld
Verantwoordelijk Commissaris Breton is uitgesproken voorstander van een beleidsagenda
gericht op het versterken van grote telecombedrijven. Tijdens de Telecomraad van 2 juni
2023 toonde de meerderheid van de lidstaten zich kritisch. Italië voegde zich recentelijk
publiekelijk bij de kritische lidstaten, waardoor voorstanders van het voorgenomen
voorstel minder sterk staan. Het Europees Parlement is ook verdeeld over dit onderwerp.
Verordening Raamwerk voor een Europese Digitale Identiteit (herziening eIDAS-verordening)
Voortgangsrapportage
Het kabinet heeft op 6 december 2022 ingestemd met de Raadspositie tijdens de algemene
oriëntatie. Hiermee hebben de lidstaten ingestemd met het bereikte compromis in de
Raad en heeft het voorzitterschap van de Raad het mandaat gekregen voor de onderhandelingen
met het Europees Parlement. Het Europees Parlement heeft recentelijk op 16 maart jl.
(Handelingen II 2022/23, nr. 54, items 6 en 9) zijn positie bepaald.
Er is uitvoerig met uw Kamer gesproken over dit dossier tijdens het Interpellatiedebat-Leijten
op 16 februari jl., specifiek over het niet opvolgen van de motie van het lid Leijten
om niet in te stemmen met de Raadspositie (Kamerstuk 36 305, nr. 1). Op 13 april jl. heeft de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
u, zoals toegezegd in het Interpellatiedebat, geïnformeerd over het vervolgproces
over dit EU-voorstel. De zorgen van uw Kamer zoals ook besproken tijdens het Interpellatiedebat,
hebben tot dusver de kern van het standpunt dat wordt uitgedragen in Brussel gevormd.
Zo is in alle formele en informele gesprekken het belang van een meer expliciet verhandelverbod
van gegevens die in de toekomst via wallets kunnen worden uitgewisseld onder de aandacht
gebracht. Dit punt is ook onder de aandacht gebracht bij het voorzitterschap, dat
namens de Raad de onderhandelingen voert met het EP en de Europese Commissie in de
triloogfase. De triloogonderhandelingen zijn op 21 maart jl. van start gegaan.
In het persbericht van het Zweedse voorzitterschap van 29 juni jl. heeft de Raad melding
gemaakt van zijn voorlopig akkoord op hoofdlijnen met het Europees Parlement en tegelijkertijd
benadrukt dat onder het Spaans voorzitterschap verdere technische uitwerking plaatsvindt
om te komen tot een definitief akkoord. Wanneer de volgende triloogbijeenkomst zal
plaatsvinden (naar verwachting tevens ook de laatste triloogbijeenkomst) is nog niet
bevestigd. Dit is deels ook afhankelijk van de voortgang van de technische trilogen.
Zodra de trilogen zijn afgerond en de drie instellingen tot een politiek akkoord zijn
gekomen, wordt aan Coreper de definitieve compromistekst voorgelegd met het oog op
bekrachtiging daarvan door de lidstaten in de Raad. Aan uw Kamer is door de Staatssecretaris
toegezegd ernaar te streven u voorafgaand aan besluitvorming in Coreper hierover te
informeren.
Interoperabiliteitsverordening
Voortgangsrapportage
De verordening is op 18 november 2022 door de Commissie gepubliceerd. Om interoperabiliteit
tussen digitale overheidsdiensten van verschillende lidstaten te vergroten heeft de
Europese Commissie deze nieuwe verordening voorgesteld. Hiermee wordt het gemakkelijker
voor overheidsorganisaties om informatie te verkrijgen over oplossingen in andere
lidstaten (zoals kaders, open specificaties, open normen of toepassingen), oplossingen
op elkaar af te stemmen en ook hergebruik te bevorderen, bijvoorbeeld in de vorm van
open source oplossingen. Er zitten elementen in ten behoeve van samenwerking met de
private sector, een portaal waarop kennis en oplossingen kunnen worden uitgewisseld,
ondersteunende projecten, monitoring, peer reviews en regulatory sandboxes (testomgevingen voor regelgeving).
Sinds de vorige voortgangsrapportage, die besproken is tijdens de Telecomraad van
2 juni 2023, heeft Spanje het voorzitterschap van Zweden overgenomen en is veel voortgang
geboekt. Inmiddels is een vierde compromisvoorstel door het Spaans voorzitterschap
opgesteld en behandeld in raadskader en zal naar verwachting in oktober worden doorgeleid
naar Coreper. Het voor het kabinet belangrijke punt van vindbaarheid van op het Interoperabel
Europa-portaal geplaatste interoperabiliteitsoplossingen (herbruikbare oplossingen,
standaarden en documentatie) is in het vierde compromisvoorstel opgenomen door het
Spaans voorzitterschap. Geplaatste interoperabiliteitsoplossingen op het portaal moeten
vindbaar zijn op een gebruiksvriendelijke manier op basis van lidstaat en het type
overheidsdienst dat zij ondersteunen.
Daarnaast is er een aanpassing met betrekking tot de publicatielocatie van interoperabiliteitsbeoordelingen
doorgevoerd, het is niet meer nodig voor elke overheidsorganisatie om dit op de eigen
website te publiceren. Lidstaten zijn nu vrij om dit bijvoorbeeld centraal te organiseren
en daarmee de werkdruk voor individuele overheidsorganisaties te verlagen.
Trilooginzet Artifical Intelligence Act (AIA) & uitvoering moties
Toelichting
De Europese Commissie heeft op 21 april 2021 een voorstel voor de Artificial Intelligence Act (AI Act) gepubliceerd met als doel om ervoor te zorgen dat er veilige AI-systemen
op de interne markt komen met waarborgen voor de bescherming van gezondheid en fundamentele
rechten. In december 2022 is een Raadspositie op de AI Act aangenomen door de Telecomraad,
en in juni 2023 heeft het Europees Parlement (EP) een positie op de AI Act ingenomen.
Inmiddels zijn de triloog-onderhandelingen gestart, waarbij Spanje als huidige voorzitter
van de Raad van de EU namens alle lidstaten onderhandelt met het EP.
Voortgang triloog
Het Spaanse voorzitterschap heeft de afronding van de AI Act tot prioriteit bestempeld.
In de praktijk betekent dit dat het tempo van de onderhandelingen hoog ligt. Er worden
veel vergaderingen georganiseerd voor de lidstaten om de verschillende onderwerpen
van de AI Act door te lopen in voorbereiding op de onderhandelingen met het EP. De
agenda’s voor deze vergaderingen worden vaak pas op het laatste moment bekend gemaakt.
Op 2 en 3 oktober en op 25 oktober staan twee politieke trilogen gepland om akkoorden
te bereiken op een aantal onderwerpen.
Prioritaire Nederlandse onderwerpen
In de triloog-onderhandelingen is directe invloed van Nederland als één van de lidstaten
op de uiteindelijke compromisteksten beperkt. Dit komt doordat het Raadsvoorzitterschap
namens de lidstaten onderhandelt op basis van de Raadstekst, er mogelijk een ander
krachtenveld binnen de Raad ontstaat als het mandaat wordt aangepast en er in de triloog
uitruil plaats vindt op onderwerpen. Desondanks brengt Nederland op een aantal prioritaire
onderwerpen actief standpunten naar voren om de Raadspositie te beïnvloeden: general
purpose AI (GPAI), noodzakelijke en proportionele uitzonderingen op of aanpassingen
van de door het EP voorgestelde verboden AI-praktijken, burgerrechten en toezicht.
GPAI: het oorspronkelijke Commissievoorstel bevatte geen eisen voor GPAI. Door de snelle
opkomst van en politieke aandacht voor nieuwe AI-systemen die voor allerlei doeleinden
kunnen worden ingezet en ook stukken tekst of afbeeldingen kunnen genereren, is hier
in de Raadstekst en de tekst van het EP wel aandacht aan besteed.
GPAI is AI die voor een breed scala aan toepassingen kan worden ingezet. In de Raadstekst
is opgenomen dat er eisen gaan gelden voor GPAI-systemen die ingezet kunnen worden
voor hoog risico toepassingen. Die eisen worden gespecificeerd in een uitvoeringshandeling
onder de AI Act. Het EP stelt echter directe eisen aan Foundation Models in de AI Act,
zoals risicomitigatie en databeheer. Foundation Models zijn de technische modellen
die onderliggend zijn aan een deel van de GPAI-systemen. Om een voorbeeld te geven:
ChatGPT gebruikt GPT-4 om op verzoek teksten te genereren. GPT-4 is het Foundation
Model en ChatGPT is een GPAI-systeem.
Het kabinet vindt het belangrijk dat er eisen worden gesteld die leiden tot een eerlijke
AI-ontwikkelketen. Omdat veel (hoog-risico) AI wordt ontwikkeld op basis van GPAI,
is het noodzakelijk dat andere ontwikkelaars de juiste informatie hebben als ze op
een dergelijk GPAI-systeem voortbouwen. In zowel de Raads- als EP-tekst moeten aanbieders
van GPAI informatie geven en ondersteuning bieden aan aanbieders die voortbouwen op
GPAI om er een «nieuw» hoog risico systeem van te maken. Wanneer aanbieders voortbouwen
op GPAI en dit nieuwe systeem onder de hoog-risico categorie valt, kunnen deze aanbieders
voldoen aan de eisen van de AI Act die voor hen gelden. Het kabinet steunt deze eis
en ziet een mogelijkheid om deze transparantie-eis te versterken. Gezien de complexe
ontwikkelketen stelt het kabinet voor om bij het op de markt brengen van een GPAI-systeem
verplicht bepaalde essentiële informatie te delen met alle aanbieders die voortbouwen
op een GPAI-systeem, en niet alleen aan hoog-risico aanbieders.
Sommige (vaak complexere) GPAI-systemen kunnen voor risico’s zorgen ongeacht binnen
welke context ze worden ingezet. Bijvoorbeeld doordat ze kunnen helpen bij het verspreiden
van desinformatie of het maken van schadelijke code. Het kabinet vindt dat deze risico’s
ook geadresseerd moeten worden. Daarom steunt het kabinet het direct in de AI Act
vastleggen van één of meerdere eisen voor alle GPAI-systemen die risico’s met zich
meebrengen ongeacht de context waar ze kunnen worden ingezet. Aanpassing of invulling
van (een deel van) deze eisen moet mogelijk zijn, om de AI Act toekomstbestendig te
houden.
Verboden AI: er zijn voorstellen van het EP die problematisch zijn voor (onder andere) de taakuitvoering
van de Rijksoverheid, zoals rechtshandhaving en migratie, maar ook belastingen en
sociale zekerheid. Zo pleit het EP onder andere voor een volledig verbod op real-time
biometrische identificatie op afstand in de publieke ruimte voor de rechtshandhaving,
een verbod voor criminaliteits- en recidivevoorspelling en een verbod op biometrische
categorisatie. De Nederlandse inzet is om op de meeste punten vast te houden aan de
Raadstekst en dus voor een aantal van die verboden enkele zeer specifieke en afgebakende
uitzonderingen toe te staan en die toepassingen op te nemen als hoog-risico in Annex
III.
Voor wat betreft het verbod op real-time biometrische identificatie op afstand in
de publieke ruimte voor rechtshandhaving wil het kabinet dat het in specifieke gevallen
waar sprake is van een directe dreiging mogelijk is om van het verbod af te wijken,
mits daar een nationale wettelijke basis voor is. Bepaalde uitzonderingen zoals voorgesteld
in de Raadstekst vindt het kabinet echter te ruim en er dus blijft het kabinet zich
inzetten voor proportionele en effectieve uitzonderingen.
Toezicht: ten aanzien van de inrichting van het toezicht op de AI Act heeft Nederland steeds
aangegeven dat het van belang is dat het mogelijk blijft om in de lidstaten twee of
meer toezichthouders te benoemen voor de verschillende hoog-risico toepassingsgebieden
in de AI Act, zoals ook is opgenomen in de Raadspositie. Daarnaast heeft Nederland
zich onlangs met een aantal lidstaten uitgesproken voor het inrichten van toezicht
op Europees niveau voor AI-systemen die aan bepaalde criteria voldoen waaronder systemische
impact. De afbakening van welke systemen dit betreft en de verdeling van competenties
tussen nationale toezichthouders en de EU-toezichthouder moet nog nauwkeurig worden
uitgewerkt.
Burgerrechten: het kabinet wil dat burgerrechten in de AI Act versterkt worden. Nederland heeft
zich reeds met succes ingezet voor een opname van een klachtrecht, en vindt het belangrijk
dat natuurlijke of rechtspersonen bij de toezichthouder terecht kunnen. Het EP heeft
een verdergaand rechtsmiddel voorgesteld. Het kabinet staat hier kritisch tegenover,
omdat daarmee bij een rechter kan worden afgedwongen hoe een klacht door een toezichthouder
moet worden afgehandeld. Hoewel het kabinet de rechtspositie van burgers wil verbeteren,
heeft het kabinet praktische en juridische bezwaren bij dit EP voorstel die onder
meer zien op de (potentieel) grote last voor toezichthouders van zo’n middel.
Conform de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987) is de regering verzocht in de Raadspositie te regelen dat een genomen besluit altijd
begrijpelijk kenbaar wordt gemaakt, waarbij ook de gebruikte data worden vermeld teneinde
iemand kan toetsen of het besluit op correcte gegevens tot stand is gekomen. Nederland
heeft zich in de Raad ingezet voor het opnemen van een verplichting voor overheidsorganisaties
als gebruikers van hoog-risico AI-systemen om een burger proactief te informeren bij
de inzet van een hoog-risico AI-systeem als een besluit wordt genomen dat die burger
raakt. Dat heeft de Raadstekst niet gehaald. In de EP-tekst wordt wel een dergelijke
(bredere) verplichting voorgesteld die ziet op besluiten van overheidsorganisaties
en private partijen. Daarnaast heeft het EP een recht op uitleg voor natuurlijke personen
van besluiten die hen raken voorgesteld. Het kabinet blijft zich tijdens de triloog-onderhandelingen
actief inzetten voor een compromisvoorstel.
Mensenrechten impact assessment: het is van groot belang dat de risico’s voor mensenrechten bij de ontwikkeling en
het gebruik van AI systemen voldoende zijn meegenomen. Conform de motie van de leden
Bouchallikh en Dekker-Abdulaziz (Kamerstuk 26 643, nr. 835) heeft Nederland zich er in de Raad succesvol voor ingezet om de risicoanalyse (mensenrechtentoets)
door de aanbieder van hoog-risico AI-systemen met het oog op de bescherming van mensenrechten
te versterken, evenals de bepalingen rond databeleid. Het EP introduceert daarbovenop
een uitgebreide mensenrechten impact assessment voor gebruikers van hoog-risico AI-systemen. Het kabinet staat kritisch tegenover het voorstel van
het EP, omdat het mogelijk dubbel werk en onduidelijke of moeilijk uitvoerbare verplichtingen
met zich meebrengt. Met name risico’s in het ontwerp of bij training van AI-systemen
kunnen niet door de gebruiker worden beoordeeld. Gezien het belang van de mensenrechtelijke
bescherming heeft het kabinet daarom compromisvoorstellen bij het Spaanse voorzitterschap
ingediend om tot een werkbare verplichting te komen waar gebruikers alleen naar zogeheten
«restrisico’s» moeten kijken. Dit zijn risico’s die niet eerder door de aanbieder
kunnen zijn geïdentificeerd en voortkomen uit het specifieke gebruik.
Uitvoering motie ontwrichtende aanbevelingsalgoritmes
In de gewijzigde motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) is de regering verzocht om zich op Europees niveau te committeren aan het verbieden
van ontwrichtende aanbevelingsalgoritmes door bijvoorbeeld in de lopende triloog-onderhandelingen
ten aanzien van de Al-verordening te pleiten voor maatregelen en afspraken die dit
verbod realiseren en de Kamer over de genomen stappen te informeren voor de begrotingsbehandeling
Digitale Zaken 2023. Het Europees Parlement heeft in haar positie aangegeven aanbevelingsalgoritmen
van de allergrootste online platforms als hoog-risico AI-systemen te willen aanmerken
binnen de systematiek van de verordening. Nederland heeft conform de motie bij het
Raadsvoorzitterschap aangegeven dat in de triloogonderhandelingen te willen steunen.
Uitvoering motie watermerken
In de motie van de leden Dekker-Abdulaziz en Rajkowski (Kamerstuk 30 821, nr. 185) is de regering verzocht om het Europees voorzitterschap te vragen om bij de onderhandelingen
over de AI-verordening het verplichten van watermerken bij door AI gegenereerde teksten
en beelden waarbij auteursrechtelijke bronnen zijn benut te agenderen. In het Commissievoorstel
voor de AI-verordening worden gebruikers van deepfaketechnologie verplicht om bekend
te maken dat het gegenereerde beeld-, audio- of videomateriaal kunstmatig gegenereerd
of bewerkt is. Een dergelijke plicht draagt bij aan het zoveel mogelijk (vooraf) mitigeren
van het gevaar dat gemanipuleerd materiaal ten onrechte als authentiek wordt gezien.
Nederland heeft deze transparantieverplichting in de onderhandelingen in de Raad en
in de trilogen met het Europees Parlement gesteund. Een mogelijke verdergaande verplichting,
die zich daarnaast richt op door AI gegenereerde tekst- of beeldmateriaal waarbij
gebruik is gemaakt van auteursrechtelijk materiaal in de trainingsdata wordt door
het kabinet bij het Spaanse voorzitterschap onder de aandacht gebracht wanneer het
onderwerp op de agenda staat.
Uitvoering motie gesprekken met organisaties over beperken risico’s AI
In de motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 26 643, nr. 1002) is het kabinet verzocht om met organisaties in gesprek te gaan over hoe zij, vooruitlopend
op de AI-verordening, verantwoordelijkheid nemen om de risico’s van AI voor de samenleving
te verkleinen. Via deze brief wordt uw Kamer geïnformeerd over de uitkomsten van deze
gesprekken.
Er zijn twee ronde tafels georganiseerd met organisaties waaraan eisen gesteld gaan
worden onder de AI-verordening. Eén met grote AI-ontwikkelaars en één met MKB AI-ontwikkelaars.
Ook wordt hieronder beschreven hoe overheidsorganisaties vooruitlopend op de AI-verordening
omgaan met mogelijke risico’s van AI.
Grote AI-bedrijven
Op 23 augustus 2023 is er een rondetafelgesprek gevoerd met Amazon, Meta en Microsoft
over de manieren waarop zij met potentiële risico’s van hun AI-producten omgaan. Deze
bedrijven hebben aangegeven zich zeer bewust te zijn van de risico’s van AI en aangegeven
daarom ook verschillende maatregelen te nemen om deze zo goed als mogelijk te beperken.
Ze hebben ook grote belangen bij het aanbieden van veilige AI; er zijn enorme kosten
en reputatieschade als het misgaat. De bedrijven zien het belang van verantwoorde
AI voor vele toepassingen met maatschappelijke relevantie, zoals in de zorg of de
landbouw.
De bedrijven hebben allen een eigen set «basisprincipes» die hun benadering ten opzichte
van AI informeert. Eén van de bedrijven noemde de principes betrouwbaarheid, privacy
en veiligheid, transparantie, robuustheid en governance.
Deze principes komen terug in de maatregelen die de bedrijven nemen om hun AI veilig
te ontwikkelen en toe te (laten) passen. Meerdere bedrijven noemden hierbij het verlenen
van assistentie aan klanten die AI-producten inkopen en assistentie aan aanbieders
van AI die hun producten op een platform aanbieden.
Deze risicobeheersing wordt door de bedrijven op verschillende niveaus gedaan. Van
AI-ontwikkelaars en bedrijven die AI inkopen tot consumenten. De maatregelen worden
afgestemd op de doelgroepen. Eén bedrijf gaf aan dat ze actief naar klanten toe gaan
om te helpen bij de toepassing van het AI-product. De voorgetrainde AI-modellen worden
via API-diensten1 beschikbaar gesteld voor het gebruik in een bepaalde applicatie. Het AI-model werd
vergeleken met een hamer, die voor verschillende toepassingen (applicaties) kan worden
gebruikt. Er werd meerdere keren aangegeven dat volgens de bedrijven het risico vooral
in de toepassing van AI zit, en minder in de modellen zelf. Daarom proberen de bedrijven
met name in de specifieke toepassingen ondersteuning te bieden om risico’s te beperken.
Er werd ook benadrukt dat er al veel regulering van toepassing is op AI-producten.
Een voorbeeld is de Algemene Verordening Gegevensbescherming (AVG). Er zijn ook al
veel vrijwillige standaarden zoals de OECD AI principles. Daarnaast zijn veel schadelijke
toepassingen van AI al strafbaar, zoals phishing door middel van deepfakes. Daarnaast
werd genoemd dat een aantal grote partijen deelneemt aan de «Voluntary Commitments» van het Witte Huis.2 De bedrijven committeren zich daarmee eraan dat hun producten veilig zijn voordat
ze openbaar worden gemaakt, dat veiligheid voorop wordt gesteld bij het maken van
AI en dat er maatregelen genomen worden om het maatschappelijk vertrouwen te versterken.
Ook wordt AI door de bedrijven ingezet om juist risico’s voor de maatschappij op andere
vlakken te beperken, bijvoorbeeld voor het detecteren van haat zaaien of andere contentmoderatie
op sociale platforms. Eén bedrijf stelt inclusieve datasets beschikbaar om ook andere
partijen in staat te stellen AI op een zo verantwoord mogelijke manier te ontwikkelen.
De keuze om de AI-modellen openbaar te maken of «gesloten» aan te bieden (via bijvoorbeeld
een API) verschilt wel tussen de bedrijven. Meta biedt hun Large Language Model (LLM)
bijvoorbeeld open aan, met als doel om wetenschappers en consumenten in staat te stellen
hierop voort te bouwen en feedback te creëren om het model beter te maken (denk aan
het opsporen en verwijderen van toxiciteit en bias).3 Aan de andere kant is er door het open aanbieden geen zicht op waar het model wordt
toegepast. Andere bedrijven bieden hun modellen betaald aan en staan hierdoor in direct
contact met de partijen die deze toepassen. Feedback op de broncode is hierdoor echter
niet mogelijk.
MKB AI-ontwikkelaars
Op 30 augustus 2023 is een rondetafelgesprek gevoerd met VORtech, Brush, Landscape
en Vartion. Op ambtelijkl niveau is met deze MKB’ers gesproken over de manier waarop
zij met de risico’s van hun eigen AI-producten omgaan, of andere AI-aanbieders hierover
adviseren.
Alle bedrijven noemden de correcte werking van AI-systemen als reden om vooraf risico’s
in te schatten en maatregelen te nemen. Voor één bedrijf was ook het risico op aansprakelijkheid
een van de redenen om extra aandacht aan mogelijke risico’s te besteden.
De bedrijven nemen daarom verschillende maatregelen om veilige AI te ontwikkelen en
implementeren. Eén bedrijf gaf aan dat ze in afwachting van AI-specifieke regelgeving
gebruik maken van bestaande ethische frameworks als basis voor maatregelen. Deze hebben
ze toegepast op bestaande methoden van data scientists om zo tot een checklist te
komen voordat ze beginnen met de ontwikkeling van een AI-systeem. Hierbij wordt bijvoorbeeld
gekeken naar welk type algoritme of AI-systeem geschikt is voor de context, de afweging
tussen eerlijkheid en nauwkeurigheid en het geschikte niveau van transparantie. Er
werd wel nog opgemerkt dat frameworks vaak erg abstract zijn, waardoor praktische
implementatie vanuit het perspectief van een AI-ontwikkelaar lastig kan zijn.
Een ander bedrijf gaf aan dat ze ook gebruik maken van een checklist en hiervoor een
risico en controle applicatie hebben ontwikkeld die verschillende risico’s automatisch
kan monitoren voor, tijdens en na de ontwikkeling van een model. Bekende risico-maatregelen
tijdens het gebruik van een AI-systeem is een «human in the loop», uitlegbaarheid
en consistentie-checks.
Er werd ook benadrukt dat veel organisaties iets met AI willen, maar dat er vaak begrip
en kennis mist. Het is daarom belangrijk dat AI-aanbieders duidelijk uitleg geven
over wat je wel of niet kan met AI en ook de vraag durven te stellen of je een proces
überhaupt moet willen automatiseren. Als er dan een weloverwogen keuze gemaakt wordt
om AI in te zetten, dan is het belangrijk om de domeinexperts te betrekken bij het
kijken naar oplossingen en het identificeren van implicaties. Zeker als het gaat om
processen waar professionals bij betrokken zijn. Naast het afwegen van de technische
mogelijkheden, moet er dus ook duidelijk naar de organisatorische context gekeken
worden.
Er werd ook nog kort gesproken over de inzet van taalmodellen en de specifieke risico’s
die daarbij komen kijken. Hierbij kijken de bedrijven vooral of een specifiek taalmodel
geschikt is voor een bepaalde toepassing. Bij die afweging is het ook van belang of
een taalmodel open-source beschikbaar is of niet. Het gaat hierbij met name om informatie
over de dataset waarop een model is getraind. Daarnaast worden third-party modellen
die niet open-source beschikbaar zijn achter de schermen continu aangepast, waardoor
de resultaten van de modellen van moment tot moment kunnen veranderen. Eén bedrijf
gaf aan om daarom een voorkeur te hebben voor open-source taalmodellen van bijvoorbeeld
Nederlandse Universiteiten.
Overheidsorganisaties
Voor de inzet van AI geldt diverse wet- en regelgeving, zoals de Algemene Verordening
Gegevensbescherming. Een deel van deze regelgeving geldt specifiek voor de overheid,
bijvoorbeeld non-discriminatiewetgeving zoals de Algemene wet bestuursrecht. In de
verzamelbrief «algoritmen reguleren» (Kamerbrief 26 643, nr. 1056) wordt nader ingegaan op de voortgang van enkele door het kabinet ingezette trajecten.
De inzet van algoritmen dient verantwoord te zijn. Het is van belang dat controle
en toetsing in een vroeg stadium plaatsvinden waardoor risico’s op ongewenste effecten
kleiner worden. Het implementatiekader «inzet van algoritmen» moet daarbij helpen,
waar o.a. verwezen wordt naar de belangrijkste normen die van toepassing zijn op de
inzet van algoritmes. Ook wordt er verwezen naar de mogelijkheid om impact assessments
(zoals een IAMA) uit te voeren als er een vermoeden is van een hoog risico. Daarnaast
zet het kabinet in op een algoritmeregister om inzichtelijk te maken wat de werking
is van algoritmen en de mogelijke ongewenste effecten. In de volgende fase wil het
kabinet het implementatiekader verder aanvullen en aanscherpen. Daarnaast zal inzicht
worden geboden in de verschillende taken, rollen en verantwoordelijkheden van overheidspartijen
die algoritmes ontwikkelen en gebruiken.
Daarnaast is het kabinet momenteel bezig met het opstellen van een visie op generatieve
AI, waarin ook expliciet aandacht wordt besteed aan de inzet van generatieve AI door
de overheid en het beperken van de risico’s van deze inzet. Hiervoor worden gesprekken
gevoerd met experts, (vertegenwoordigers) van burgers, bedrijven en maatschappelijke
instellingen. De visie op generatieve AI is eind januari 2024 gereed en zal het kabinet
uw Kamer doen toekomen.
Raadsbesluit World Radio Conference
Appreciatie
Tijdens de Raad Landbouw en Visserij van 18 september 2023 is het Raadsbesluit over
het standpunt dat namens de EU moet worden ingenomen in de World Radiocommunication
Conference 2023 (WRC-23) van de International Telecommunication Union (ITU) aangenomen.
Tijdens de WRC-23, die van 20 november tot en met 15 december plaatsvindt in Dubai
(Verenigde Arabische Emiraten), wordt het ITU-radioreglement herzien. Dit internationale
verdrag wijst radiofrequenties toe aan verschillende radiocommunicatiediensten en
stelt technische voorwaarden aan het gebruik van deze frequenties. Het aangenomen
Raadsbesluit WRC-23 bevat gemeenschappelijke onderhandelingsposities van de EU over
agendapunten die raken aan de interne markt, Europese wetgeving en/of ingezet EU-beleid.
De agendapunten gaan onder meer over de mogelijk toekomstige uitbreidingsbanden voor
5G en andere vormen van draadloze connectiviteit, en de mogelijkheden voor ruimteonderzoek
en aardobservatie ten behoeve van klimaatonderzoek.
Mededeling Web 4.0 (Metaverse)
Appreciatie
Op 11 juli 2023 presenteerde de Europese Commissie haar mededeling over een initiatief
over Web 4.0 en virtuele werelden.4 In dit initiatief stelt de Europese Commissie haar visie en strategische acties voor
de Europese Unie voor in verband met Web 4.0.5 en virtuele werelden als onderdeel daarvan. Dit initiatief met de daarin benoemde
acties is erop gericht Europese bedrijven toonaangevende toepassingen te laten ontwikkelen
en Europese burgers veilig en vol vertrouwen gebruik te laten maken van virtuele werelden.
De mededeling van de Commissie bevat geen aankondiging van nieuwe wetgevende initiatieven,
maar wel een aantal acties ter ondersteuning van lidstaten. De Kamer wordt via deze
agenda van de Informele Telecomraad geïnformeerd over de appreciatie van het voorstel.
Er is geen BNC-fiche opgesteld.
De mededeling bevat een uiteenzetting van de aanleiding van dit initiatief, wat er
speelt op het gebied van virtuele werelden, en werkt vervolgens een strategie uit
op de volgende onderdelen en doelstellingen uit de digital decade: i) burgers en vaardigheden,
ii) bedrijfsleven, iii) overheid en gaat daarna in op governance.
Het kabinet verwelkomt deze mededeling en kan zich op hoofdlijnen vinden in het voorstel
van de Commissie. Het voorstel laat zien wat er al gebeurt op het onderwerp en besteedt
aandacht aan het belang van virtuele werelden. Het is goed dat het onderwerp virtuele
werelden wordt gekoppeld aan de vier thema’s van de digital decade en het connectiviteitspakket
van de Commissie.
De Europese Commissie benadrukt de mogelijkheden van virtuele werelden voor maatschappij
en economie. Het kabinet vindt het positief dat de Commissie interventies voorstelt
die de benutting van deze kansen mogelijk maakt. Als aandachtspunten bij het voorstel
ziet het kabinet dat de Europese Commissie te beperkt stil staat bij en waarschuwt
voor de risico’s van virtuele werelden, met name ook voor kinderen. Het voorstel mist
de nuance dat de onderliggende technologie nog in ontwikkeling is en dat daarom nog
geen volledig beeld bestaat van de kansen en met name de risico’s. Dit terwijl deze
technologieën naar verwachting ook risico’s met zich mee zullen brengen, zoals het
op grote schaal verzamelen van zeer sensitieve data (zoals biometrische gegevens),
privatisering van digitale omgevingen, afleiding, verstoring en gevaarzetting in de
fysieke wereld en risico’s van machtsconcentratie.6
Het voorstel bevat geen nieuwe wetgevende initiatieven. De Commissie analyseert in
het voorstel wel de in onderhandeling zijnde of onlangs geïntroduceerde wetgeving
(o.a. DSA, DMA, DGA, AVG, AI-Act) en lijkt te constateren dat veel van deze (al dan
niet aanstaande) wet- en regelgeving voldoende robuust en toekomstbestendig is om
ook risicovolle ontwikkelingen rondom Web 4.0 en virtuele werelden te reguleren of
aan te pakken. Het kabinet is wat meer terughoudend omdat de effectiviteit van het
pakket aan cumulatieve regels zich in de praktijk nog moet gaan bewijzen en vindt
het belangrijk dat er continu wordt gekeken of beleid en/of regelgeving nog aansluit
op nieuwe ontwikkelingen.
Momenteel analyseert het Rathenau Instituut de kansen en risico’s van immersieve technologieën,
waaronder virtuele werelden. Over de uitkomsten zal het kabinet uw Kamer te zijner
tijd informeren.
Ondertekenaars
-
Eerste ondertekenaar
M.A.M. Adriaansens, minister van Economische Zaken en Klimaat
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.