Antwoord schriftelijke vragen : Antwoord op vragen van het lid Kathmann over het ontslag van het gehele TikTok moderatieteam in Nederland
Vragen van het lid Kathmann (GroenLinks-PvdA) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het ontslag van het gehele TikTok moderatieteam in Nederland: (ingezonden 16 oktober 2024).
Antwoord van Staatssecretaris Szabó (Binnenlandse Zaken en Koninkrijksrelaties) (ontvangen
19 november 2024)
Vraag 1
Bent u bekend met het bericht «TikTok schrapt honderden banen: wil meer AI inzetten
voor contentmoderatie» (11-10-2024)?1
Antwoord 1
Ja
Vraag 2
Heeft u voor of na het ontslag van het complete moderatieteam van TikTok in Nederland
contact gehad met een vertegenwoordiger van TikTok over deze ontslagen? Zo ja, wat
heeft u besproken? Zo nee, waarom niet?
Antwoord 2
Ja, er is contact opgenomen door het Ministerie van BZK met TikTok in Nederland nadat
bekend werd dat het contentmoderatieteam daar was ontslagen. TikTok gaf aan dat dit
ontslag geen invloed heeft op het totale aantal moderatoren binnen de EU. Het platform
heeft ook aangegeven dat er geen grote veranderingen zijn in het aantal moderatoren
per taalgroep en dat het niet van plan is het aantal menselijke contentmoderatoren
aanzienlijk te verminderen.
Vraag 3
Kunt u een inschatting maken van wat het schrappen van het Nederlandse moderatieteam
betekent voor de moderatie van Nederlandstalige content op TikTok?
Antwoord 3
Zoals aangegeven, stelt TikTok dat het ontslag van het moderatieteam in Nederland
geen grote impact heeft op het aantal moderatoren per taalgroep. Dit betekent dat
er niet aanzienlijk minder Nederlandstalige moderatoren zijn en dat Nederlandse content
niet minder gemodereerd wordt. Mocht echter blijken dat TikTok’s informatie onjuist
is en er wel beduidend minder Nederlandse moderatoren zijn, waardoor systeemrisico’s
toenemen, dan is het aan de Europese Commissie (EC), als toezichthouder, om dit verder
te onderzoeken en te evalueren.
Vraag 4
Deelt u de mening dat er voor effectieve contentmoderatie niet enkel vertrouwd kan
worden op foutgevoelige AI-systemen, maar dat er ook altijd sprake zou moeten zijn
van menselijk toezicht dat op de hoogte is van de lokale (Nederlandse) context waarin
de content wordt geproduceerd? Zo nee, waarom niet?
Antwoord 4
Ik begrijp de wens om menselijke controle in contentmoderatie. Zoals ook aangegegeven
in de Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie
is het kabinet van mening dat te veel sociale media platformen hebben nagelaten voldoende
investeringen te doen in context-specifieke, talige en culturele menselijke expertise
in Nederland. Ik heb dan ook een onderzoek uitgezet naar de beste praktijken in contentmoderatie
op zeer grote online platforms en zoekmachines, zodat er geleerd kan worden welke
contentmoderatiesystemen het beste werk verrichten. De resultaten van dit onderzoek
zullen in het najaar van 2025 beschikbaar zijn en zullen ook met de Europese Commissie
gedeeld worden.
Vraag 5
Kunt u reflecteren op dit ontslag van het Nederlandse moderatieteam in het kader van
artikel 16 van de Digital Services Act (DSA), welke eisen stelt aan het voldoen aan
meldings- en actieverplichtingen, en artikel 20 van de DSA, dat platforms verplicht
stelt om «gemotiveerde beslissingen» te nemen «onder toezicht van passend gekwalificeerd
personeel, en niet uitsluitend op basis van geautomatiseerde middelen»?
Antwoord 5
Artikel 16 van de DSA gaat over het inrichten van een toegankelijk en gebruiksvriendelijk
kennisgevings- en actiemechanisme. Hierin zijn aanbieders van online hostingsdiensten
verplicht om gebruikers op de hoogte te stellen wanneer zij voor die verwerking of
besluitvorming geautomatiseerde middelen gebruiken. Ook artikel 17 van de DSA geeft
aan dat gebruikers geïnformeerd moeten worden als content wordt gemodereerd met geautomatiseerde
middelen. De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen,
die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er
is, of naar de rechter te gaan. Het kabinet wil burgers beter in staat stellen om
hun rechten te halen bij sociale mediaplatformen. Zoals vermeld in de Voortgangsbrief
Rijksbrede strategie voor een effectieve aanpak van desinformatie, werkt het Ministerie
van BZK daarom aan de verkenning van een meldvoorziening en een onafhankelijk geschillenorgaan,
zoals beschreven in artikel 21 van de DSA.
Artikel 20 van de DSA verwijst naar de inrichting van een klachtensysteem. Hierin
zijn aanbieders van online diensten verplicht om een doeltreffend intern klachtenafhandelingssysteem
in te stellen dat elektronisch en gratis te gebruiken is voor gebruikers. De verwijzing
dat aanbieders van onlineplatforms verplicht zijn om genomen besluiten onder toezicht
van gekwalificeerd personeel te nemen en niet louter geautomatiseerde middelen in
te zetten, verwijst naar de genomen besluiten in een interne klachtenhandelingssysteem
en niet in hun inhoudsmoderatie.
Met betrekking tot inhoudsmoderatiebeslissingen, al dan niet geautomatiseerd, zijn
de artikelen 42 en 15 relevant. Artikel 42 van de DSA verplicht zeer grote onlineplatforms
om rapporten te publiceren met details over hun inhoudsmoderatie-inspanningen. Deze
rapporten moeten onder andere aangeven hoeveel personeel ze inzetten per officiële
taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie
werkt in elke taal.
Artikel 15 van de DSA verplicht zeer grote onlineplatforms om te rapporteren over
hun inhoudsmoderatie. Deze rapporten moeten duidelijk en eenvoudig te begrijpen zijn
en informatie bevatten over acties die ze hebben genomen om inhoud te modereren, zoals
het gebruik van geautomatiseerde tools. Ze moeten ook details geven over de nauwkeurigheid
van deze tools, mogelijke fouten, en welke maatregelen ze hebben genomen om fouten
te beperken. De informatie moet ook worden ingedeeld op basis van het type illegale
inhoud en de gebruikte moderatiemethode.
Vraag 6
Bent u van mening dat het mogelijk is om te voldoen aan de verplichtingen uit artikel
34 en 35 van de DSA om, rekening houdend met specifieke regionale of taalkundige aspecten
(ook wanneer deze specifiek zijn voor een lidstaat), systemische risico’s voor platforms
als TikTok te identificeren, analyseren en effectief te beperken zonder dat er in
Nederland personeel voor contentmoderatie aanwezig is? Kunt u dit toelichten?
Antwoord 6
Ja, dat is mogelijk en hangt ervan af of TikTok elders voldoende Nederlandstalige
moderatoren met kennis van de context in dienst heeft. TikTok dient in transparantieverslagen
aan te geven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten.
Hierbij is het belangrijk om erop te wijzen dat de DSA vraagt om een uiteenzetting
van de hoeveelheid personeel per officiële taal binnen de EU, ongeacht de locatie
van deze contentmoderatoren.
In het meest recente transparantieverslag (januari-juni 2024) vermeldt TikTok 160
Nederlandstalige inhoudsmoderatoren. Als in het volgende transparantieverslag blijkt
dat TikTok een significante vermindering van Nederlandstalige contentmoderatoren heeft
en dit leidt tot een systeemrisico, kan het bedrijf nog steeds voldoen aan artikel
34 en 35 van de DSA, mits er voldoende mitigerende maatregelen zijn genomen om deze
risico’s te beheersen, zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures
en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen.
Vraag 7
Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht
nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote
onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?
Vraag 7
Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht
nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote
onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?
Antwoord 8
Het oordeel of TikTok de DSA correct genoeg naleeft is aan de Europese Commissie.
De Europese Commissie is namelijk de primaire toezichthouder voor het naleven van
de DSA door zeer grote platforms, waaronder TikTok. Sinds de inwerkingtreding van
de DSA heeft de EC haar rol als toezichthouder voortvarend opgepakt en wij volgen
nauwlettend de ontwikkelingen. Zo startte de Commissie in 2024 twee formele procedures
tegen TikTok om te onderzoeken of er sprake is van overtredingen van de DSA.2 Artikelen 74 en 76 van de DSA geven de Commissie een bevoegdheid om een boete of
last onder dwangsom op te leggen als er daadwerkelijk sprake is van een overtreding.
De Nederlandse overheid volgt de verdere uitvoering van de DSA en ondersteunt de Commissie
waar het kan. Zoals in antwoord vier is aangegeven is er namens het Ministerie van
BZK een onderzoek uitgezet, waarin wordt onderzocht welke beste moderatiepraktijken
er bestaan bij zeer grote online platformen en zoekmachines. De resultaten hiervan
zullen in het najaar van 2025 bekendgemaakt worden.
Vraag 9
Is bij u bekend of alle platforms aangemerkt als «Very Large Online Platform» (VLOP)
nu (nog) zijn voorzien van een moderatieteam in Nederland? Hoe kunt u verzekeren dat
berichtjes op deze platformen blijvend door mensen worden gemodereerd?
Antwoord 9
Het is publiekelijk beschikbare informatie hoeveel personeel VLOP’s hebben die in
het Nederlands modereren. Artikel 42 van de DSA verplicht VLOP’s namelijk om halfjaarlijks
transparantieverslagen te publiceren met details over onder andere hun inhoudsmoderatie-inspanningen.
Deze rapporten moeten bijvoorbeeld aangeven hoeveel personeel ze inzetten per officiële
taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie
werkt in elke taal. Zoals reeds aangegeven had TikTok 160 Nederlandstalige inhoudsmoderatoren
in de periode januari-juni 2024. Meta3 dat verantwoordelijk is voor de VLOP’s Instagram en Facebook had in totaal 96 Nederlandstalige
moderatoren in de periode van april-september 2024. En X/Twitter had geen enkele Nederlandstalige
contentmoderator in de periode van april-september 2024.4 Verder is het niet verplicht om in de transparantieverslagen op te nemen in welke
landen de contentmoderatoren gevestigd zijn.
De DSA verbiedt ook niet dat een platform gebruik maakt van geautomatiseerde middelen
voor het verrichten van moderatie. Maar als dat gebeurt dan moet het platform dat
benoemen in het bericht waarmee ze een gebruiker informeren dat ze diens content hebben
gemodereerd (artikel 17). De gebruiker heeft vervolgens het recht om daar een klacht
over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie
als die er is, of naar de rechter te gaan.
Indien een gebrek aan menselijke controle leidt tot dusdanige risico’s dat het een
systeemrisico in de zin van artikel 34 DSA vormt, dan moeten zeer grote online platforms
en zoekmachines daar mitigerende maatregelen tegen nemen. Zoals bijvoorbeeld de aanpassing
van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of
moderatiemiddelen. Ook de opleiding en lokale deskundigheid van moderatoren behoort
hiertoe.
Vraag 10
Kunt u deze vragen afzonderlijk van elkaar en zo spoedig mogelijk beantwoorden?
Antwoord 10
Ja
Ondertekenaars
-
Eerste ondertekenaar
F.Z. Szabó, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.