Antwoord schriftelijke vragen : Antwoord op vragen van het lid Michon-Derkzen over het bericht ‘Politie vindt steeds vaker met AI gemaakte kinderporno: groot probleem’
Vragen van het lid Michon-Derkzen (VVD) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties en de Minister van Justitie en Veiligheid over het bericht «Politie vindt steeds vaker met AI gemaakte kinderporno: groot probleem» (ingezonden 21 maart 2024).
Antwoord van Minister Yeşilgöz-Zegerius (Justitie en Veiligheid), mede namens de Staatssecretaris
van Binnenlandse Zaken en Koninkrijksrelaties (ontvangen 13 mei 2024). Zie ook Aanhangsel
Handelingen, vergaderjaar 2023–2024, nr. 1480.
Vraag 1
Bent u bekend met het bericht «Politie vindt steeds vaker met AI gemaakte kinderporno:
groot probleem»?1
Antwoord 1
Ja ik ben bekend met dit bericht.
Vraag 2
Klopt het dat het aantal kinderpornografische afbeeldingen gemaakt door, of met behulp
van, AI sterk toeneemt? Heeft u enig inzicht in om hoeveel afbeeldingen dit gaat in
Nederland?
Antwoord 2
Ja, het aantal afbeeldingen van seksueel kindermisbruik gemaakt door of met behulp
van kunstmatige intelligentie neemt toe. Hoewel er geen exacte cijfers beschikbaar
zijn omdat het totaal aantal afbeeldingen niet wordt geregistreerd, geeft het Team
ter bestrijding van Kinderpornografie en Kindersekstoerisme (TBKK) aan dat er wel
een toename van AI-gegenereerd materiaal wordt waargenomen. Omdat een afbeelding van
seksueel kindermisbruik altijd strafbaar is, maakt het voor politie niet uit hoe een
afbeelding is gegenereerd.
Uit onderzoek van de Internet Watch Foundation (IWF) blijkt evenwel dat van de totale
hoeveelheid materiaal van seksueel kindermisbruik, de hoeveelheid door kunstmatige
intelligentie gegenereerd materiaal op dit moment nog een relatief klein deel betreft.2 Wel merkt de IWF op dat dit aandeel in potentie exponentieel kan groeien, mede gezien
daders dergelijk materiaal met rechtmatig te verkrijgen software kunnen creëren en
de ontwikkeling van generatieve kunstmatige intelligentie snel gaat. Ook het aantal
meldingen van afbeeldingen gegenereerd met behulp van kunstmatige intelligentie bij
het National Center for Missing & Exploited Children (NCMEC) is wereldwijd sterk gestegen.
Vraag 3
Klopt het dat het bezit en veelvuldig bekijken van dit soort materiaal op termijn
fysiek misbruik van kinderen in de hand werkt?
Antwoord 3
Het is duidelijk dat blootstelling aan online materiaal van seksueel kindermisbruik
risicovol is. Dergelijk materiaal bestendigt een cultuur van geweld en draagt bij
aan de ontmenselijking, uitbuiting en seksualisering van kinderen. Daarnaast draagt
de gemakkelijke toegang tot materiaal van seksueel kindermisbruik bij aan de normalisering
van seksueel geweld tegen kinderen.
In die context is AI-gegenereerd materiaal volstrekt onacceptabel en moeten we er
alles aan doen om dit verwerpelijke materiaal op te sporen en ontoegankelijk te maken.
Politie en openbaar ministerie zetten dan ook in op de opsporing van de personen die
dergelijk materiaal online delen en uitwisselen. Ook worden de online communicatiediensten
die dit faciliteren gewezen op hun wettelijke verplichtingen.
Hoewel er nog geen onderzoek is dat een direct causaal verband aantoont tussen het
kijken van (door kunstmatige intelligentie gegenereerd) materiaal van seksueel kindermisbruik
en het op termijn daadwerkelijk fysiek seksueel misbruiken van kinderen, zijn er meerdere
onderzoeken waarvan de conclusies suggereren dat er een verband kán bestaan. Zo is
er wetenschappelijk onderzoek uitgevoerd waarin respondenten aangaven dat de herhaaldelijke
blootstelling aan online materiaal van seksueel kindermisbruik ervoor had gezorgd
dat ze een seksuele interesse in kinderen hadden ontwikkeld.3 Het is echter de vraag of deze seksuele interesse door het kijken van dergelijk materiaal
wordt ontdekt of ontwikkeld. Meerdere onderzoeken suggereren wel dat gebruikers van
legale pornografie de neiging hebben om in de loop van de tijd extremere content te
gaan bekijken.4 Dit wordt toegeschreven aan een vermindering van het opwindingsniveau met betrekking
tot dezelfde stimuli bij herhaaldelijke blootstelling aan deze stimuli. Ook heeft
recent onderzoek gesuggereerd dat regulier of overmatig gebruik van pornografie voor
volwassenen een mogelijke weg is naar het kijken van materiaal van seksueel misbruik
van kinderen.5 Tot slot zijn er wetenschappelijke studies gedaan naar de verschillende stadia die
een potentiële dader doorloopt tot deze daadwerkelijk overgaat tot fysiek misbruik.
Fantaseren over potentieel seksueel kindermisbruik wordt hierin beschreven als een
stap in de spiraal die uiteindelijk leidt tot seksueel kindermisbruik.6
Vraag 4
In hoeverre is het mogelijk het identificeren of herkennen van AI-gegenereerde afbeeldingen
te vergemakkelijken, zodat de politie/het Team ter bestrijding van Kinderpornografie
en Kindersekstoerisme (TBKK) hier minder tijd aan kwijt is? Bestaan er mogelijkheden
om te traceren waar of door wie dit soort afbeeldingen gemaakt worden?
Antwoord 4
Op dit moment is het voor Team ter bestrijding van Kinderpornografie en Kindersekstoerisme
(TBKK) vaak nog redelijk snel te herkennen wanneer het door kunstmatige intelligentie
gegenereerd materiaal van seksueel kindermisbruik betreft. Door de nog niet zo vergevorderde
techniek is het dan duidelijk dat manipulatie van beelden heeft plaatsgevonden. Ook
stuit TBKK incidenteel op daders die gezichten van andere kinderen op het gezicht
van een slachtoffer in een reeds bekende misbruikvideo plakken, waardoor manipulatie
van de beelden duidelijk te herkennen is. Het ligt in de lijn der verwachting dat
herkenning steeds lastiger wordt omdat de technologie van generatieve kunstmatige
intelligentie snel aan het verbeteren is.
Op dit moment bestaat nog geen sluitende technologie om te traceren door wie of waar
dit soort beeldmateriaal wordt gemaakt. Dit geldt evenzo voor het bepalen of het AI-gegenereerd
materiaal betreft. Het bepalen van de authenticiteit van materiaal is van belang gezien
de prioriteit om daadwerkelijke slachtoffers zo snel mogelijk te identificeren. Het
is de vraag of dergelijke sluitende technologie in de toekomst wel zal bestaan. Generatieve
kunstmatige intelligentie ontwikkelt in rap tempo waarbij enerzijds wordt gewerkt
aan technologie om gegenereerd of gemanipuleerd materiaal te herkennen en anderzijds
aan technologie om op steeds accuratere wijze te genereren en manipuleren. Dit doet
uiteraard niets af aan het belang om dergelijke technologie dat dit soort materiaal
kan herkennen te ontwikkelen.
Vraag 5
Ondersteunt u de oproep van landelijk coördinator van het TBKK Van Mierlo aan techbedrijven
om hun verantwoordelijkheid te pakken? Zo ja, hoe jaagt u dit aan?
Antwoord 5
De oproep van de heer van Mierlo zag met name toe op de bedrijven met wiens generatieve
kunstmatige intelligentie materiaal wordt gegenereerd. Uiteraard dragen de bedrijven
via wiens diensten het wordt verspreid ook een verantwoordelijkheid. Hier zal ik in
het kader van online platforms in het antwoord op vraag 6 op reflecteren.
De oproep sluit aan bij de internationale oproep aan bedrijven in januari 2024 van
een aantal politiekorpsen, verenigd in de «Virtual Global Taskforce»7, om hen aan te sporen actief deel te nemen in de strijd tegen de gevolgen van kunstmatige
intelligentie op dit specifieke terrein. De politieorganisaties zitten in dit kader
ook met (tech-)bedrijven aan tafel. Ook het kabinet hecht er groot belang aan dat
(generatieve) kunstmatige intelligentie veilig en rechtmatig wordt ontwikkeld en gebruikt.
De zorgen rondom de risico’s die generatieve kunstmatige intelligentie biedt voor
het sneller generen en verspreiden van illegale content, zoals materiaal van seksueel
kindermisbruik, worden gedeeld. Het kabinet zit niet stil en neemt verschillende stappen
om gerelateerde risico’s te adresseren. In het kader van de overheidsbrede visie op
generatieve kunstmatige intelligentie wordt onder meer ingezet op het versterken van
digitale vaardigheden en digitaal bewustzijn van mensen in Nederland zodat zij bewust,
kritisch en actief kunnen omgaan met AI-toepassingen.8
Vanzelfsprekend dragen techbedrijven ook verantwoordelijkheid om zorg te dragen dat
de systemen die zij ontwikkelen niet gebruikt worden om materiaal van seksueel kindermisbruik
te genereren. In het kader van «safety by design» zouden zij hun dienst dusdanig moeten inrichten dat deze door gebruikers zo min mogelijk
kan worden misbruikt.9 Gezien het zelflerend vermogen van AI-systemen en de mogelijk beperkte grip op het
gebruik van deze systemen door de ontwerper is het moeilijk om illegaal gebruik van
generatieve kunstmatige intelligentie geheel uit te sluiten.
Vraag 6
Deelt u de mening van de VVD-fractie dat online platforms ook een rol hebben om dit
soort content te identificeren en uit de lucht te halen? Zo ja, hoe ziet u daarop
toe?
Antwoord 6
Het door middel van kunstmatige intelligentie genereren van kinderpornografisch materiaal
is strafbaar op basis van artikel 240b van het Wetboek van Strafrecht. Het huidige
artikel 240b van het Wetboek van Strafrecht, dat wordt vervangen door het nieuwe artikel 252
dat per 1 juli a.s. in werking treedt (Wet seksuele misdrijven, Stb. 2024, 59), kent geen beperking in de wijze van vervaardiging van kinderpornografisch materiaal.
Het gaat er om dat het vervaardigde materiaal aan de vereisten voldoet die in de strafbepaling
worden gesteld. Strafbaar is dus ook degene die met behulp of door gebruik van kunstmatige
intelligentie een visuele weergave van seksuele aard of met een onmiskenbaar seksuele
strekking waarbij een kind is betrokken of schijnbaar is betrokken (virtueel kinderpornografisch
materiaal), vervaardigt. Vereist is dat het een realistische weergave van seksuele
aard of met een onmiskenbaar seksuele strekking betreft.
Online platforms hebben zeker een grote verantwoordelijkheid om dit soort content
uit de lucht te halen na meldingen. Dit geldt voor alle vormen van online illegale
content. Op grond van artikel 16 van de Digital Services Act dienen online platforms
een systeem te hebben waarmee illegale inhoud bij hen kan worden gemeld. Zodra het
online platform een dergelijke melding ontvangt moet het die tijdig, zorgvuldig, niet-willekeurig
en objectief behandelen. Als er inderdaad sprake is van illegale inhoud dan moet het
online platform zodra het daar van weet – bijvoorbeeld als gevolg van een melding –
prompt handelen om de illegale inhoud te verwijderen of de toegang daartoe onmogelijk
te maken. Doet een online platform dat niet dan kan het zowel privaat- als strafrechtelijk
aansprakelijk worden gesteld voor die illegale inhoud. Het toezicht op naleving van
de DSA ligt bij de toezichthouder van het land waar een online platform is gevestigd,
en als het een zeer groot online platform betreft deels (exclusief) bij de Europese
Commissie. Het kabinet heeft voorgesteld om de Autoriteit Consument en Markt (ACM)
aan te wijzen als de onafhankelijk toezichthouder op de DSA in Nederland.
Recent is het platform Telegram veel in de media verschenen over besloten groepen
waar schokkend pornografisch materiaal wordt gedeeld.10 Ook door uw Kamer zijn vragen gesteld specifiek over Telegram. Met betrekking tot
Telegram verwijs ik u daarom graag door naar de beantwoording van de betreffende Kamervragen.11
Daarnaast wordt in de wet bestuursrechtelijke aanpak online kinderpornografisch materiaal
(Kamerstukken II 36 377, nr. 2) voorgesteld dat hosting service providers die in Nederland gevestigd zijn en materiaal
van seksueel kindermisbruik – ook met AI gegenereerd – opslaan of doorgeven een bindende
aanwijzing van de Autoriteit Terroristisch en Kinderpornografisch Materiaal (ATKM)
krijgen. De aanwijzing attendeert de dienstverlener op de aanwezigheid van het materiaal
en houdt het bevel in dit materiaal binnen een korte termijn ontoegankelijk te maken.
Naleving van de aanwijzing kan worden afgedwongen met een last onder dwangsom of een
bestuurlijke boete. Binnenkort zal dit wetsvoorstel door Uw Kamer worden behandeld.
Tenslotte wordt er vanuit de Europese Unie al enige tijd onderhandeld over een voorstel
voor een verordening betreffende voorschriften ter voorkoming en bestrijding van seksueel
kindermisbruik. Het voorstel bestaat uit regels die aanbieders van hostingdiensten
en interpersoonlijke communicatiediensten verplichten om het risico te beoordelen
dat hun diensten worden gebruikt voor het verspreiden van materiaal van CSA (Child
Sexual Abuse) en het benaderen van kinderen voor seksuele doeleinden (grooming). Ook dienen zij dit materiaal te melden aan het nieuw op te richten Europees Centrum
en het materiaal te verwijderen. Onder bepaalde omstandigheden kunnen bedrijven ook
worden verplicht om materiaal van CSA te detecteren.
Vraag 7
In hoeverre draagt de Europese AI-verordening bij aan het bestrijden van AI-kinderporno?
Antwoord 7
De Europese AI-verordening verplicht aanbieders van AI-systemen (ontwikkelaars of
degene die het op de markt brengt) waarmee content zoals video en tekst gemaakt kan
worden om ervoor te zorgen dat met kunstmatige intelligentie gegenereerde of gemanipuleerde
content als zodanig detecteerbaar is. Dit is mede door de Nederlandse inzet tijdens
de onderhandelingen in de verordening opgenomen. Hiermee wordt het voor platforms,
opsporingsdiensten en eindgebruikers makkelijker om gegeneerde content te onderscheiden
van echte content. Hoewel dit het verspreiden van kinderpornografisch materiaal nooit
volledig zal kunnen voorkomen, levert deze verplichting zo een bijdrage aan het tegengaan
AI genereerd kinderpornografisch materiaal.
Vraag 8
In hoeverre draagt de Europese DSA-verordening bij aan het bestrijden van AI-kinderporno?
Antwoord 8
De DSA bevat diverse verplichtingen die kunnen helpen bij het bestrijden van illegale
inhoud zoals AI-kinderpornografisch materiaal. Zoals in het antwoord op vraag 6 beschreven
dienen platforms en aanbieders van hostingdiensten illegale inhoud te verwijderen
na melding daarvan. Ook dienen zeer grote online platforms (Very Large Online Platforms,
VLOP’s) op grond van artikel 34 DSA jaarlijks een risicobeoordeling te maken van mogelijke
systeemrisico’s die hun diensten bevatten. Waaronder de verspreiding van illegale
inhoud en eventuele of werkelijke negatieve effecten op de bescherming van minderjarigen.
Indien die risico’s bestaan moeten ze risicobeperkende maatregelen nemen (artikel 35
DSA).
Daarnaast versterkt de Digital Services Act ook de verplichtingen voor aanbieders
van hostingdiensten. Naast verspreiding via online platforms kan AI-kinderporno ook
worden verspreid via hostingdiensten. Aanbieders van hostingdiensten dienen op grond
van artikel 11 DSA een contactpunt te hebben voor nationale autoriteiten zoals rechtshandhavingsinstellingen.
Op grond van artikel 13 moeten aanbieders van hostingdiensten en online platforms
die geen vestiging in de Unie hebben een wettelijke vertegenwoordiger in de EU aanwijzen
wanneer zij hier diensten aanbieden.12 Deze verplichtingen moeten het contact met aanbieders van deze diensten en handhaving
van de DSA vergemakkelijken, bijvoorbeeld voor het verrichten van meldingen van illegale
inhoud.
Vraag 9
In hoeverre wordt het met de Wet bestuursrechtelijke aanpak online kinderporno beter
mogelijk om deze vorm van kinderpornografisch materieel aan te pakken en in hoeverre
is de Autoriteit Online Terroristisch en Kinderpornografisch Materiaal (AKTM) voldoende
toegerust en geëquipeerd om deze vorm van kinderpornografisch materiaal aan te pakken?
Antwoord 9
Het wetsvoorstel bestuursrechtelijke aanpak online kinderpornografisch materiaal maakt
het mogelijk om een binnen Nederland gevestigde dienstverlener (hosting service provider
of communicatiedienst) die kinderpornografisch materiaal – ook met AI gegenereerd –
opslaat of doorgeeft een bindende aanwijzing te geven. De aanwijzing attendeert de
dienstverlener op de aanwezigheid van het materiaal en houdt het bevel in dit materiaal
binnen een korte termijn ontoegankelijk te maken. Naleving van de aanwijzing kan worden
afgedwongen met een last onder dwangsom of een bestuurlijke boete.
De in dit wetsvoorstel voorgestelde bestuursrechtelijke maatregelen vormen het sluitstuk
van het bestaande regime van zelfregulering. Daarbij dienen zij ter aanvulling op
de bestaande strafrechtelijke aanpak waarmee wordt opgetreden tegen diegenen die zich
met de productie of het bezit van kinderpornografisch materiaal bezighouden. Deze
aanvulling is noodzakelijk, gelet op de grote hoeveelheid online kinderpornografisch
materiaal die in Nederland wordt opgeslagen en doorgegeven en de snelle verspreiding
daarvan. Dit wetsvoorstel is er (louter) op gericht online kinderpornografisch materiaal
zo snel mogelijk ontoegankelijk te doen maken. Het wetsvoorstel ligt voor in uw Kamer.
Vraag 10
De politie ziet steeds meer mensen – met name jongeren – die afgeperst worden met
naaktbeelden die door AI gemaakt zijn; op hoeveel mensen heeft de politie zicht? Wordt
hier aangifte voor gedaan? Zo nee, waarom niet en hoe kan de aangiftebereidheid verhoogd
worden?
Antwoord 10
In internationaal verband is al langere tijd bekend dat daders, ook buiten Nederland,
jongeren benaderen met gefingeerde profielen, vaak gegenereerd door toepassing van
kunstmatige intelligentie of soortgelijke technieken. Zij doen zich bijvoorbeeld voor
als een leeftijdsgenoot en proberen het vertrouwen van de slachtoffers te wekken waarna
zij de slachtoffers overtuigen tot het versturen van seksueel beeldmateriaal. Het
beeldmateriaal wordt daarna ingezet om de slachtoffers af te persen. Dit is een wereldwijd
fenomeen met vele slachtoffers die zich vaak niet melden. Ook in Nederland komt dit
voor en is sprake van verschillende typen daders, zo gaat het in sommige gevallen
ook om leeftijdgenoten van het slachtoffer.
Er wordt door de politie geen cijfermatige informatie bijgehouden over de exacte handelwijze
bij deze afpersingen en er wordt niet geregistreerd of er gebruik is gemaakt van kunstmatige
intelligentie. De politie hecht groot belang aan het realiseren van een zo hoog mogelijke
aangiftebereidheid, en zet zich daarnaast stevig in om slachtoffers te bereiken met
het juiste hulpaanbod. Gezien de kwetsbaarheid van deze slachtoffers, is adequate
hulp van groot belang. Zo wijs ik graag op de ondersteuning van slachtoffers door
organisaties zoals HelpWanted, onderdeel van Offlimits, of stichting 113.
Vraag 11
Klopt het dat de overheid meldpunten faciliteert voor dienstverleners binnen de internetsector
om illegale content/deepfakes aan te geven? Is het hier ook mogelijk om dit soort
AI-gegeneerde pornografische afbeeldingen te melden? Hoe vlot de ontwikkeling van
een laagdrempelige voorziening waar evident onrechtmatige content gemeld kan worden?
Antwoord 11
Het klopt dat de overheid voorzieningen financiert waar mensen online content kunnen
melden die na beoordeling door de voorziening onder de aandacht kan worden gebracht
bij internettussenpersonen. Strafbare online content kan worden gemeld bij Meld.Online
Discriminatie (MOD) en het Meldpunt Kinderporno. Dit geldt ook voor gevallen van deepfakes
die discriminatoir van karakter zijn of als het seksueel kindermisbruik betreft. Hiernaast
wordt in samenwerking met Helpwanted momenteel een pilot uitgevoerd als onderdeel
van het voornemen om een laagdrempelige meldvoorziening in te richten voor slachtoffers
van onrechtmatige content. In dit kader kunnen ook onrechtmatige deepfakes worden
gemeld, bijvoorbeeld als mensen door de deepfake in de persoon worden geschaad. Naar
verwachting neemt het kabinet later dit jaar een besluit over de laagdrempelige meldvoorziening.
Vraag 12
Wat is de stand van zaken van het onderzoeksprogramma van het Nederland Forensisch
Instituut (NFI) met als doel de mogelijkheden voor deepfakedetectie in de rechtspraktijk
verder te verbeteren?
Antwoord 12
Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) zijn
in 2021 gestart met gezamenlijk onderzoek naar computermodellen om deepfakes en verborgen
berichten te helpen herkennen.13 Binnen dit AI4Forensics Lab doen zij onderzoek naar het fenomeen deepfakes. Zij analyseren
de nieuwste methodes om deepfakes te herkennen en evalueren deze op forensische bruikbaarheid.
De onderzoekers hebben al een aantal nieuwe methodes aan hun gereedschapskist toegevoegd
om deepfakes te herkennen. Zo laat bijvoorbeeld iedere camera een vingerafdruk achter,
of kan met behulp van een tijdlijn van de elektriciteitsfrequentie worden vastgesteld
of bijvoorbeeld het hoofd op een ander tijdstip is gefilmd dan de rest van de video.
Ook doen het NFI en de UvA onderzoek naar uitlegbare AI om deepfakes te herkennen.14 De vorm, noodzaak en mogelijkheden voor voortzetting van het deepfake onderzoek binnen
het AI4Forensic Lab zal eind 2024 worden geëvalueerd.
Het NFI heeft inmiddels deepfakes onderzocht in enkele strafrechtelijke onderzoeken.
Het gaat dan om video’s waarbij lichamen en gezichten van personen gemanipuleerd zijn.
Gezien deepfakes steeds beter en realistischer worden, erkent het NFI de noodzaak
om onderzoek te blijven doen en nieuwe methodes te ontdekken, om daarmee criminelen
voor te blijven.
Ondertekenaars
-
Eerste ondertekenaar
D. Yesilgöz-Zegerius, minister van Justitie en Veiligheid -
Mede namens
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.