Antwoord schriftelijke vragen : Antwoord op vragen van het lid Kathmann over het ontslag van het gehele TikTok moderatieteam in Nederland
Vragen van het lid Kathmann (GroenLinks-PvdA) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het ontslag van het gehele TikTok moderatieteam in Nederland: (ingezonden 16 oktober 2024).
Antwoord van Staatssecretaris Szabó (Binnenlandse Zaken en Koninkrijksrelaties) (ontvangen
            19 november 2024)
         
Vraag 1
            
Bent u bekend met het bericht «TikTok schrapt honderden banen: wil meer AI inzetten
               voor contentmoderatie» (11-10-2024)?1
Antwoord 1
            
Ja
Vraag 2
            
Heeft u voor of na het ontslag van het complete moderatieteam van TikTok in Nederland
               contact gehad met een vertegenwoordiger van TikTok over deze ontslagen? Zo ja, wat
               heeft u besproken? Zo nee, waarom niet?
            
Antwoord 2
            
Ja, er is contact opgenomen door het Ministerie van BZK met TikTok in Nederland nadat
               bekend werd dat het contentmoderatieteam daar was ontslagen. TikTok gaf aan dat dit
               ontslag geen invloed heeft op het totale aantal moderatoren binnen de EU. Het platform
               heeft ook aangegeven dat er geen grote veranderingen zijn in het aantal moderatoren
               per taalgroep en dat het niet van plan is het aantal menselijke contentmoderatoren
               aanzienlijk te verminderen.
            
Vraag 3
            
Kunt u een inschatting maken van wat het schrappen van het Nederlandse moderatieteam
               betekent voor de moderatie van Nederlandstalige content op TikTok?
            
Antwoord 3
            
Zoals aangegeven, stelt TikTok dat het ontslag van het moderatieteam in Nederland
               geen grote impact heeft op het aantal moderatoren per taalgroep. Dit betekent dat
               er niet aanzienlijk minder Nederlandstalige moderatoren zijn en dat Nederlandse content
               niet minder gemodereerd wordt. Mocht echter blijken dat TikTok’s informatie onjuist
               is en er wel beduidend minder Nederlandse moderatoren zijn, waardoor systeemrisico’s
               toenemen, dan is het aan de Europese Commissie (EC), als toezichthouder, om dit verder
               te onderzoeken en te evalueren.
            
Vraag 4
            
Deelt u de mening dat er voor effectieve contentmoderatie niet enkel vertrouwd kan
               worden op foutgevoelige AI-systemen, maar dat er ook altijd sprake zou moeten zijn
               van menselijk toezicht dat op de hoogte is van de lokale (Nederlandse) context waarin
               de content wordt geproduceerd? Zo nee, waarom niet?
            
Antwoord 4
            
Ik begrijp de wens om menselijke controle in contentmoderatie. Zoals ook aangegegeven
               in de Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie
               is het kabinet van mening dat te veel sociale media platformen hebben nagelaten voldoende
               investeringen te doen in context-specifieke, talige en culturele menselijke expertise
               in Nederland. Ik heb dan ook een onderzoek uitgezet naar de beste praktijken in contentmoderatie
               op zeer grote online platforms en zoekmachines, zodat er geleerd kan worden welke
               contentmoderatiesystemen het beste werk verrichten. De resultaten van dit onderzoek
               zullen in het najaar van 2025 beschikbaar zijn en zullen ook met de Europese Commissie
               gedeeld worden.
            
Vraag 5
            
Kunt u reflecteren op dit ontslag van het Nederlandse moderatieteam in het kader van
               artikel 16 van de Digital Services Act (DSA), welke eisen stelt aan het voldoen aan
               meldings- en actieverplichtingen, en artikel 20 van de DSA, dat platforms verplicht
               stelt om «gemotiveerde beslissingen» te nemen «onder toezicht van passend gekwalificeerd
               personeel, en niet uitsluitend op basis van geautomatiseerde middelen»?
            
Antwoord 5
            
Artikel 16 van de DSA gaat over het inrichten van een toegankelijk en gebruiksvriendelijk
               kennisgevings- en actiemechanisme. Hierin zijn aanbieders van online hostingsdiensten
               verplicht om gebruikers op de hoogte te stellen wanneer zij voor die verwerking of
               besluitvorming geautomatiseerde middelen gebruiken. Ook artikel 17 van de DSA geeft
               aan dat gebruikers geïnformeerd moeten worden als content wordt gemodereerd met geautomatiseerde
               middelen. De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen,
               die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er
               is, of naar de rechter te gaan. Het kabinet wil burgers beter in staat stellen om
               hun rechten te halen bij sociale mediaplatformen. Zoals vermeld in de Voortgangsbrief
               Rijksbrede strategie voor een effectieve aanpak van desinformatie, werkt het Ministerie
               van BZK daarom aan de verkenning van een meldvoorziening en een onafhankelijk geschillenorgaan,
               zoals beschreven in artikel 21 van de DSA.
            
Artikel 20 van de DSA verwijst naar de inrichting van een klachtensysteem. Hierin
               zijn aanbieders van online diensten verplicht om een doeltreffend intern klachtenafhandelingssysteem
               in te stellen dat elektronisch en gratis te gebruiken is voor gebruikers. De verwijzing
               dat aanbieders van onlineplatforms verplicht zijn om genomen besluiten onder toezicht
               van gekwalificeerd personeel te nemen en niet louter geautomatiseerde middelen in
               te zetten, verwijst naar de genomen besluiten in een interne klachtenhandelingssysteem
               en niet in hun inhoudsmoderatie.
            
Met betrekking tot inhoudsmoderatiebeslissingen, al dan niet geautomatiseerd, zijn
               de artikelen 42 en 15 relevant. Artikel 42 van de DSA verplicht zeer grote onlineplatforms
               om rapporten te publiceren met details over hun inhoudsmoderatie-inspanningen. Deze
               rapporten moeten onder andere aangeven hoeveel personeel ze inzetten per officiële
               taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie
               werkt in elke taal.
            
Artikel 15 van de DSA verplicht zeer grote onlineplatforms om te rapporteren over
               hun inhoudsmoderatie. Deze rapporten moeten duidelijk en eenvoudig te begrijpen zijn
               en informatie bevatten over acties die ze hebben genomen om inhoud te modereren, zoals
               het gebruik van geautomatiseerde tools. Ze moeten ook details geven over de nauwkeurigheid
               van deze tools, mogelijke fouten, en welke maatregelen ze hebben genomen om fouten
               te beperken. De informatie moet ook worden ingedeeld op basis van het type illegale
               inhoud en de gebruikte moderatiemethode.
            
Vraag 6
            
Bent u van mening dat het mogelijk is om te voldoen aan de verplichtingen uit artikel
               34 en 35 van de DSA om, rekening houdend met specifieke regionale of taalkundige aspecten
               (ook wanneer deze specifiek zijn voor een lidstaat), systemische risico’s voor platforms
               als TikTok te identificeren, analyseren en effectief te beperken zonder dat er in
               Nederland personeel voor contentmoderatie aanwezig is? Kunt u dit toelichten?
            
Antwoord 6
            
Ja, dat is mogelijk en hangt ervan af of TikTok elders voldoende Nederlandstalige
               moderatoren met kennis van de context in dienst heeft. TikTok dient in transparantieverslagen
               aan te geven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten.
               Hierbij is het belangrijk om erop te wijzen dat de DSA vraagt om een uiteenzetting
               van de hoeveelheid personeel per officiële taal binnen de EU, ongeacht de locatie
               van deze contentmoderatoren.
            
In het meest recente transparantieverslag (januari-juni 2024) vermeldt TikTok 160
               Nederlandstalige inhoudsmoderatoren. Als in het volgende transparantieverslag blijkt
               dat TikTok een significante vermindering van Nederlandstalige contentmoderatoren heeft
               en dit leidt tot een systeemrisico, kan het bedrijf nog steeds voldoen aan artikel
               34 en 35 van de DSA, mits er voldoende mitigerende maatregelen zijn genomen om deze
               risico’s te beheersen, zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures
               en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen.
            
Vraag 7
            
Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht
               nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote
               onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?
            
Vraag 7
            
Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht
               nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote
               onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?
            
Antwoord 8
            
Het oordeel of TikTok de DSA correct genoeg naleeft is aan de Europese Commissie.
               De Europese Commissie is namelijk de primaire toezichthouder voor het naleven van
               de DSA door zeer grote platforms, waaronder TikTok. Sinds de inwerkingtreding van
               de DSA heeft de EC haar rol als toezichthouder voortvarend opgepakt en wij volgen
               nauwlettend de ontwikkelingen. Zo startte de Commissie in 2024 twee formele procedures
               tegen TikTok om te onderzoeken of er sprake is van overtredingen van de DSA.2 Artikelen 74 en 76 van de DSA geven de Commissie een bevoegdheid om een boete of
               last onder dwangsom op te leggen als er daadwerkelijk sprake is van een overtreding.
            
De Nederlandse overheid volgt de verdere uitvoering van de DSA en ondersteunt de Commissie
               waar het kan. Zoals in antwoord vier is aangegeven is er namens het Ministerie van
               BZK een onderzoek uitgezet, waarin wordt onderzocht welke beste moderatiepraktijken
               er bestaan bij zeer grote online platformen en zoekmachines. De resultaten hiervan
               zullen in het najaar van 2025 bekendgemaakt worden.
            
Vraag 9
            
Is bij u bekend of alle platforms aangemerkt als «Very Large Online Platform» (VLOP)
               nu (nog) zijn voorzien van een moderatieteam in Nederland? Hoe kunt u verzekeren dat
               berichtjes op deze platformen blijvend door mensen worden gemodereerd?
            
Antwoord 9
            
Het is publiekelijk beschikbare informatie hoeveel personeel VLOP’s hebben die in
               het Nederlands modereren. Artikel 42 van de DSA verplicht VLOP’s namelijk om halfjaarlijks
               transparantieverslagen te publiceren met details over onder andere hun inhoudsmoderatie-inspanningen.
               Deze rapporten moeten bijvoorbeeld aangeven hoeveel personeel ze inzetten per officiële
               taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie
               werkt in elke taal. Zoals reeds aangegeven had TikTok 160 Nederlandstalige inhoudsmoderatoren
               in de periode januari-juni 2024. Meta3 dat verantwoordelijk is voor de VLOP’s Instagram en Facebook had in totaal 96 Nederlandstalige
               moderatoren in de periode van april-september 2024. En X/Twitter had geen enkele Nederlandstalige
               contentmoderator in de periode van april-september 2024.4 Verder is het niet verplicht om in de transparantieverslagen op te nemen in welke
               landen de contentmoderatoren gevestigd zijn.
            
De DSA verbiedt ook niet dat een platform gebruik maakt van geautomatiseerde middelen
               voor het verrichten van moderatie. Maar als dat gebeurt dan moet het platform dat
               benoemen in het bericht waarmee ze een gebruiker informeren dat ze diens content hebben
               gemodereerd (artikel 17). De gebruiker heeft vervolgens het recht om daar een klacht
               over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie
               als die er is, of naar de rechter te gaan.
            
Indien een gebrek aan menselijke controle leidt tot dusdanige risico’s dat het een
               systeemrisico in de zin van artikel 34 DSA vormt, dan moeten zeer grote online platforms
               en zoekmachines daar mitigerende maatregelen tegen nemen. Zoals bijvoorbeeld de aanpassing
               van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of
               moderatiemiddelen. Ook de opleiding en lokale deskundigheid van moderatoren behoort
               hiertoe.
            
Vraag 10
            
Kunt u deze vragen afzonderlijk van elkaar en zo spoedig mogelijk beantwoorden?
Antwoord 10
            
Ja
Ondertekenaars
- 
              
                  Eerste ondertekenaar
F.Z. Szabó, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties 
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.