Antwoord schriftelijke vragen : Antwoord op vragen van het lid Rajkowski over het bericht dat werknemers in een brief stellen dat OpenAI roekeloos is en dat het ontbreekt aan toezicht
Vragen van het lid Rajkowski (VVD) aan de Minister van Economische Zaken en Klimaat en de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het bericht dat werknemers in een brief stellen dat OpenAI roekeloos is en dat het ontbreekt aan toezicht (ingezonden 10 juni 2024).
Antwoord van Minister Beljaarts (Economische Zaken), mede namens de Staatssecretaris
            van Binnenlandse Zaken en Koninkrijksrelaties (ontvangen 9 september 2024). Zie ook
            Aanhangsel Handelingen, vergaderjaar 2023–2024, nr. 2097.
         
Vraag 1
            
Bent u bekend met het bericht dat werknemers in een brief stellen dat OpenAI roekeloos
               is en dat het ontbreekt aan toezicht?1 Herkent u de zorgen zoals geuit in de brief van huidig en voormalig werknemers van
               OpenAI? Zo ja, hoe ziet de Minister het mogelijke gevaar van het versterken van ongelijkheid
               en het verspreiden van desinformatie door AI (in Nederland)? Welke gevaren ziet de
               Minister nog meer?
            
Antwoord 1
            
Ja, hier ben ik mee bekend. Ik herken de risico’s die worden genoemd in de brief en
               de bezorgdheid over het effect dat artificiële intelligentie (AI) kan hebben op het
               creëren en verspreiden van mis- en desinformatie.
            
Generatieve AI zoals de producten van OpenAI maken het in potentie makkelijker om
               mis- en desinformatie te creëren. Om deze risico’s te beperken zijn regels opgesteld
               in de AI-verordening. Zo moeten aanbieders van AI-systemen die synthetische content2 genereren ervoor zorgen dat de output van het AI-systeem wordt gemarkeerd in een
               machineleesbaar formaat en detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd.
               Dit maakt het makkelijker voor grote online platforms om systeemrisico’s die kunnen
               voortvloeien uit de verspreiding van kunstmatig gegenereerde of gemanipuleerde content
               te identificeren en te beperken. Verder geldt dat AI-systemen die bedoeld zijn om
               te worden gebruikt voor het beïnvloeden van de uitslag van een verkiezing of referendum,
               of van het stemgedrag bij verkiezingen of referenda als hoog-risico worden geclassificeerd
               vanuit de AI-verordening. Aanbieders van deze systemen moeten dan ook voldoen aan
               de eisen en verplichtingen voor AI-systemen met een hoog risico, zoals het identificeren
               en voorkomen van risico’s. OpenAI verbiedt dan ook het gebruik van hun producten voor
               politieke beïnvloeding.
            
Het kabinet wil dat deze risico’s van generatieve AI worden ingeperkt en aangepakt,
               maar ook de kansen van generatieve AI benutten voor het tegengaan van desinformatie.
               In de Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie3, die onlangs vanuit mijn ambtsvoorgangers, aan uw Kamer is verzonden, wordt dieper
               ingegaan op de impact van generatieve AI en het verspreiden van desinformatie.
            
Het kabinet erkent ook het risico dat AI kan hebben op groeiende ongelijkheid en de
               sociaaleconomische implicaties. Daarom steunt zij ook het eerder aangevraagd advies
               van het vorige kabinet hierover aan de Sociaal Economische Raad4, zodat het kabinet samen met werkgevers en werknemers actie kan ondernemen om de
               impact van AI op de samenleving op een verantwoorde manier een vervolg te geven. De
               AI-verordening heeft als doel om risico’s van AI-systemen aan te pakken, waaronder
               het risico op discriminatie wat ongelijkheid veroorzaakt en kan vergroten. De AI-verordening
               bepaalt dat onder meer risico’s op aantasting van fundamentele rechten zoals het recht
               op non-discriminatie moeten worden aangepakt bij de ontwikkeling van AI-systemen en
               bij de inzet van AI-systemen door overheidsinstanties.
            
Vraag 2 en 4
            
Hoe ziet u in algemene zin het spanningsveld tussen het feit dat de AI Act pas in
               haar volledige vorm over enkele jaren in werking treedt en dat het op dit moment wenselijk
               kan zijn om toezicht te houden en daar waar nodig in te grijpen bij organisatie die
               maatschappij veranderende technieken uitbrengen, zoals kunstmatige intelligentie en
               large language models?
            
Wat kan er nu al gedaan worden om te voorkomen dat (de toepassing van) generatieve
               en specifieke AI gevaarlijk wordt? Deelt de Minister de mening dat het belangrijk
               is om niet te wachten op de AI-Act en nu al stappen te ondernemen, gezien de snelle
               ontwikkelingen als het gaat om (de toepassing van) verschillende soorten AI? Welke
               maatregelen neemt de Minister hiervoor? Zo nee, waarom niet?
            
Antwoord 2 en 4
            
Als het gaat om het reguleren van AI als product binnen de EU en in Nederland, vormt
               de AI-verordening hiervoor het juridisch fundament. De AI-verordening is in werking
               getreden op 1 augustus jl. en wordt stapsgewijs van toepassing. Zo zijn bepaalde AI-praktijken
               al na 6 maanden verboden. De eisen voor AI-modellen voor algemene doeleinden (waar
               Large Language Models zoals GPT van OpenAI naar verwachting ook onder vallen) zijn
               al na 12 maanden van toepassing. Hieronder vallen ook de zwaardere eisen wanneer deze
               modellen ook voor systeemrisico’s kunnen zorgen. Voor de eisen aan hoog-risico AI-toepassingseisen
               gelden termijnen van 24 en 36 maanden. Het is belangrijk dat ontwikkelaars en gebruiksverantwoordelijken
               van deze AI-modellen en systemen voldoende tijd hebben om zich goed te kunnen voorbereiden
               op het van toepassing worden van de eisen.
            
Het kabinet neemt nu al stappen om risico’s van (generatieve) AI te adresseren. Daarom
               wordt in Nederland al hard gewerkt aan het versterken van het toezicht op AI, mede
               in voorbereiding op de AI-verordening. Zo is onder de Autoriteit Persoonsgegevens
               (AP) de Directie Coördinatie Algoritmes (DCA) opgericht om het toezicht op algoritmes
               en AI in Nederland te versterken. Dit doet zij door risico’s van algoritmes en AI
               te signaleren en analyseren, samenwerking tussen toezichthouders te versterken en
               guidance te bevorderen. Daarnaast hebben de Rijksinspectie Digitale Infrastructuur
               (RDI) en de DCA in 2024 samen 3,1 miljoen euro ontvangen van het Ministerie van Economische
               Zaken om Nederland te kunnen voorbereiden op het inrichten van toezicht op de AI-verordening.
               De RDI en DCA bieden in de loop van dit jaar een definitief advies aan over de inrichting
               van het toezicht op de AI-verordening aan de bewindspersonen van Economische Zaken,
               Binnenlandse Zaken en Koninkrijksrelaties en Justitie en Veiligheid. Daarna wordt
               de voorgenomen inrichting van het toezicht opgenomen in de uitvoeringswet die aan
               het parlement wordt voorgelegd via de gebruikelijke wegen.
            
Onder de AI-verordening zijn aanbieders van AI-modellen voor algemene doeleinden met
               ingang van 1 augustus 2025 verplicht om informatie en documentatie op te stellen,
               up-to-date te houden en beschikbaar te stellen voor toezichthouders en aanbieders
               die dat AI-model in hun AI-systemen willen integreren. De bedoeling is dat deze informatie
               en documentatie inzicht geeft in de capaciteiten en beperkingen van het AI-model voor
               algemene doeleinden en daarmee aanbieders verderop in de waardeketen die met dit model
               verder bouwen aan specifiekere AI-modellen of -systemen in staat stellen aan hun verplichtingen
               uit de AI-verordening te voldoen.
            
Als AI-modellen voor algemene doeleinden voor systeemrisico’s kunnen zorgen, dan moeten
               ze volgens de AI-verordening aan extra eisen voldoen. Dit kan het geval zijn als er
               zeer veel computerkracht gebruikt is bij het trainen van het model, maar ook het aantal
               eindgebruikers kan een relevante factor zijn bij de beoordeling of een AI-model voor
               systeemrisico’s kan zorgen. Modellen met systeemrisico’s moeten onder andere modelevaluaties
               uitvoeren, risico’s beoordelen en beperken en zorgen voor een passend niveau van cybersecurity.
               Ook moeten incidenten zo snel mogelijk gemeld worden bij het Europese AI-bureau, dat
               toezicht houdt op deze modellen.
            
Het AI-bureau («AI Office») van de Europese Commissie is bevoegd om toezicht te houden
               op AI-modellen voor algemene doeleinden. De eisen voor deze modellen treden 1 augustus
               2025 in werking, waarna het AI-bureau kan gaan controleren of deze worden nageleefd.
            
Er wordt niet gewacht tot de AI-verordening van toepassing is om veilige ontwikkeling
               en gebruik van AI te bevorderen. Zo heeft de Europese Commissie recent het «AI Pact»
               gelanceerd. Dit AI Pact heeft als doel om organisaties vroegtijdig aan de AI-verordening
               te laten voldoen. Aan de ene kant door informatie en best practices tussen organisaties
               uit te wisselen, en aan de andere kant door organisaties te motiveren om toe te zeggen
               dat ze vroegtijdig aan de eisen zullen voldoen. Daarnaast ontwikkelt het AI-bureau
               al verschillende instrumenten die bijdragen aan een effectieve uitvoering van de AI-verordening,
               zoals richtsnoeren en lagere wetgeving die de AI-verordening verder duidelijk maken,
               praktijkcodes, benchmarks en het ondersteunen en bundelen van kennis uit de verschillende
               adviesorganen. Daarbij draagt de Commissie namens de Europese lidstaten bij aan internationale
               gedragscodes voor geavanceerde AI-systemen, zoals de Hiroshima gedragscode van de
               G7.5 Nederland volgt deze ontwikkelingen nauw en werkt tijdens de implementatie van de
               AI-verordening via verschillende adviesorganen nauw samen met het Europese AI-bureau.
            
Daarnaast bestaan er al verschillende wetten die niet specifiek over AI gaan, maar
               die wel normen bevatten waarmee de inzet van AI wordt gereguleerd. De Algemene Verordening
               Persoonsgegevens (AVG) biedt bijvoorbeeld juridische kaders bij geautomatiseerde besluitvorming
               met behulp van AI en bij het verwerken van persoonsgegevens voor het trainen of gebruik
               van AI. Op grond van de AVG hebben EU privacy toezichthouders ervoor gezorgd dat ChatGPT
               extra privacy waarborgen biedt. De Algemene wet bestuursrecht (Awb) stelt normen aan
               de kwaliteit van overheidsbesluiten en de motivering daarvan, ook als daar AI voor
               wordt gebruikt. De Algemene wet gelijke behandeling (Awgb) beschermt tegen discriminatie
               als AI-systemen worden gebruikt bij het aanbieden van bijvoorbeeld werk, goederen
               en diensten.
            
Tenslotte zijn er de afgelopen jaren verschillende (niet-regulerende) beleidsacties
               op nationaal niveau opgezet die ook bijdragen aan een verantwoorde inzet van AI. Voorbeelden
               hiervan zijn het algoritmeregister voor AI dat wordt gebruikt door de overheid6, de ELSA-labs7, het investeringsprogramma AiNed, het ROBUST programma en het impact assessment mensenrechten
               algoritmes (IAMA).
            
Vraag 3
            
Welke mogelijkheden zijn er in afwachting van de volledige inwerkingtreding van de
               AI-Act om de negatieve risico’s van AI op de samenleving te mitigeren? Zijn er mogelijkheden
               om op te treden tegen activiteiten en handelingen die nu formeel nog niet als illegaal
               bestempeld zijn onder de AI-Act, maar dat wel gaan zijn zodra de volledige AI-Act
               in werking zal treden?
            
Antwoord 3
            
Het is pas mogelijk om juridisch op te treden tegen activiteiten en handelingen op
               het moment dat zij illegaal zijn. Alhoewel de AI-verordening nog niet (volledig) van
               toepassing is, kunnen bepaalde activiteiten en handelingen op dit moment al wel illegaal
               zijn op grond van bestaande juridische kaders, zoals non-discriminatiewetgeving. Bijvoorbeeld
               als deze activiteiten en handelingen onrechtmatig zijn.
            
Overigens is het denkbaar dat activiteiten en handelingen illegaal zijn, terwijl het
               toezicht daarop en de handhaving daarvan op dat moment nog niet zijn gerealiseerd.
               Zo zijn de verboden in de AI-verordening van toepassing met ingang van 1 februari
               2025, terwijl het toezicht op en de handhaving van de verboden pas 6 maanden later
               geregeld hoeft te zijn.8 Voor het inzetten van toezichtsbevoegdheden of handhavend optreden is een grondslag
               in de nationale (formele) wet noodzakelijk.9 Tot die tijd is een overtreding van de verboden wel onrechtmatig en kan een procedure
               gestart worden bij de civiele rechter. Tevens kan een toezichthouder, na de aanwijzing
               bij of krachtens formele wet, zo nodig met terugwerkende kracht handhaven.
            
Vraag 5
            
Deelt u de mening dat de AI-adviesraad, zoals om gevraagd in de motie-Rajkowski (Kamerstuk
               21 501-33, nr. 1041), er zo snel mogelijk moet komen om na te kunnen denken over mogelijke acties als
               het gaat om (de toepassing van) AI op het gebied van veiligheid, weerbaarheid, wenselijkheid,
               innovatie en strategische autonomie? Op welke termijn kunnen we een dergelijke raad
               verwachten? Welke maatregelen of besluiten moeten er nog genomen worden?
            
Antwoord 5
            
Genoemde motie vraagt de regering om te onderzoeken of een Nederlands adviserend orgaan
               van toegevoegde waarde kan zijn om de overheid op korte termijn te adviseren bij ontwikkelingen
               rondom kunstmatige intelligentie. Door het vorige kabinet is gemeld dat er een verkenning
               wordt gedaan naar het inrichten van een AI-adviesraad en de laatste stand van zaken
               van vóór de zomer10. Die verkenning continueert het huidig kabinet. Aan de nadere vormgeving van de adviesraad,
               inbegrepen haar bevoegdheden, wordt nog gewerkt. Hierbij wordt er ook juridisch bekeken
               welke mogelijkheden de Kaderwet Adviescolleges hiertoe biedt. Ik verwacht dit najaar
               de uitkomsten van dit onderzoek met uw Kamer te kunnen delen.
            
Vraag 6
            
Deelt u de mening dat het wenselijk is om in te zetten op Nederlandse/Europese ontwikkeling
               van kunstmatige intelligentie met de focus op publieke waarden met positieve maatschappelijke
               en economische effecten en dat een AI-fabriek hier een interessant instrument voor
               kan zijn? Deelt u de mening dat het wenselijk kan zijn om een AI-fabriek, eventueel
               in Europese samenwerking, te plaatsen in Nederland en het daarmee een mooie aanvulling
               kan zijn op ons digitale knooppunt en het versterken van onze digitale economie van
               de toekomst? Zo ja, op welke manier gaat u zich hiervoor inzetten in Europa? Zo nee,
               waarom niet?
            
Antwoord 6
            
Het AI-beleid in Nederland heeft zich sinds 2019 gericht op het versterken van het
               waardengedreven AI-ecosysteem waar onze publieke belangen, zoals fundamentele rechten,
               zijn geborgd en we de maatschappelijke en economische kansen verzilveren. Dit gebeurt
               onder meer via de publiek-private Nederlandse AI Coalitie (NLAIC), het AiNed investeringsprogramma
               (Nationaal Groeifonds) en de inzet voor de AI-verordening. Om het Europese AI-ecosysteem
               verder te versterken, heeft de Europese Commissie in januari 2024 het AI-innovatiepakket
               gelanceerd. In de BNC-fiches hierover is positief gereageerd op het voorstel van de
               Commissie om AI-fabrieken te ontwikkelen.11 Het voorstel voor amendering van de verordening omtrent de voortzetting van de gemeenschappelijke
               onderneming voor High Performance Computing (HPC) is 23 mei jl. goedgekeurd door de
               Raad van Concurrentievermogen.
            
In de Kamerbrief «Verkenning mogelijkheden AI-faciliteit»12 van 4 juni jl. is uw Kamer onlangs geïnformeerd over drie scenario’s die de Ministeries
               van OCW, BZK en EZ momenteel aan het verkennen zijn, namelijk: 1) bestaande middelen
               gebruiken, 2) meer investeringen in Europese AI-faciliteiten binnen EuroHPC, en 3) AI-faciliteit
               in Nederland, waarbij deze faciliteit onderdeel uitmaakt van het bredere Europese
               supercomputerecosysteem (gemeenschappelijke onderneming EuroHPC). Per scenario brengen
               de betrokken ministeries momenteel de meerwaarde en haalbaarheid in kaart. Hierin
               is onder meer aandacht voor de impact op maatschappelijke en economische belangen.
            
De scenario-aanpak is bedoeld om een zorgvuldige afweging te kunnen maken door het
               kabinet, omdat er aanzienlijke investeringen mee gemoeid kunnen zijn.
            
Vraag 7
            
Bent u bereid om, eventueel met Europese collega’s in gesprek te gaan met de Europese
               Commissie over hoe er op korte termijn gezorgd kan worden dat OpenAI openheid geeft
               over een aantal zaken zodat we het tegengaan van misbruik van kunstmatige intelligentie
               en andere onwenselijke effecten kunnen mitigeren? Zo nee, waarom niet?
            
Antwoord 7
            
Zoals ook aangegeven in het antwoord op vraag 2 tot en met 4, zal het AI-bureau van
               de Europese Commissie toezicht gaan houden op AI-modellen voor algemene doeleinden
               (waar Large Language Models zoals GPT van OpenAI ook onder vallen). Om ervoor te zorgen
               dat de aanbieders van deze modellen weten hoe ze aan de gestelde eisen moeten voldoen,
               worden er codes of practice opgesteld. Dit zijn praktische richtsnoeren die in samenwerking met de lidstaten
               en andere belanghebbenden worden opgesteld.
            
Hoewel de Commissie na een jaar bevoegdheden heeft om naleving van de regels te eisen,
               treedt zij in het kader van het opstellen van de codes of practice daarvoor al wel in dialoog met onder andere aanbieders en gebruikers van AI-modellen
               voor algemene doeleinden. Indien de Commissie signalen krijgt over de negatieve gevolgen
               van deze AI-modellen, kan hierover ook de dialoog aangegaan worden met de ontwikkelaars.
            
Via de recent opgerichte AI-Board is Nederland actief betrokken bij deze ontwikkelingen
               en staan we in nauw contact met de Europese Commissie over de bredere uitwerking van
               de AI-verordening.
            
Ondertekenaars
- 
              
                  Eerste ondertekenaar
D.S. Beljaarts, minister van Economische Zaken - 
              
                  Mede namens
F.Z. Szabó, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties 
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.