Brief regering : Handhaving en vrijheid van meningsuiting op online platformen
26 643 Informatie- en communicatietechnologie (ICT)
33 826
Mensenrechten in Nederland
Nr. 1365
BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 4 juli 2025
De afgelopen tijd zijn in verschillende landen maatregelen genomen tegen sociale media
platformen, omdat deze er van verdacht worden de wet te hebben overtreden. Op 3 september
jl. verzocht het lid Van Houwelingen om een brief over wat het lid van Houwelingen
(FVD) «censuur wereldwijd op sociale media» noemt. In deze brief ga ik, mede namens
de Minister voor Binnenlandse Zaken en Koninkrijksrelaties, in op dit verzoek.
Het lid Van Houwelingen vraagt om in te gaan op drie gebeurtenissen: het tijdelijke
verbod op X in Brazilië, de brief van Mark Zuckerberg aan het Amerikaanse Congres
en de arrestatie van de topman van Telegram in Parijs. Het lid van Roon (PVV) vraagt
«om alle juridische ins en outs en ook hoe daar in Frankrijk naar wordt gekeken».
Vrijheid van meningsuiting en strafbare content
Ten aanzien van publicaties op het internet geldt in Nederland, net als in andere
democratische rechtsstaten zoals de VS, Frankrijk en Brazilië, als uitgangspunt de
vrijheid van meningsuiting. Dit grondrecht wordt hier onder meer gewaarborgd in artikel
7 van de Grondwet en in artikel 10 van het Europees Verdrag tot bescherming van de
Rechten van de Mens en de fundamentele vrijheden (EVRM). De vrijheid van meningsuiting
geldt als een belangrijk grondrecht in onze democratie en kan slechts worden beperkt
als andere belangen, zoals de veiligheid, zwaarder wegen en die beperking kan alleen
bij wet en als het proportioneel is. Daarbij wordt geen onderscheid gemaakt tussen
uitingen in de fysieke wereld en online content: dat wat strafbaar en onrechtmatig
is in de fysieke wereld is dat ook online.
In geval van een verdenking van een strafbaar feit als bedoeld in artikel 67, eerste
lid Sv, kan de officier van justitie met een machtiging van de rechter-commissaris,
een platform bevelen om gegevens ontoegankelijk te maken als dit noodzakelijk is voor
de beëindiging van een strafbaar feit of ter voorkoming van nieuwe strafbare feiten
(artikel 125p Sv). Voorbeelden van dergelijke strafbare content zijn beeldmateriaal
van seksueel kindermisbruik, terroristische inhoud en hate speech. Gelet op de belangen
die bij een bevel tot het ontoegankelijk maken in het geding zijn is een voorafgaande
rechterlijke machtiging vereist. Een rechter-commissaris is nodig om een onpartijdige
en zorgvuldige afweging tussen de verschillende belangen te maken. Hierbij kan het
gaan om gevallen waarin verschil van inzicht bestaat over de strafbaarheid van de
content. Daarbij kan de vrijheid van meningsuiting in het geding zijn. Daarom zal
de rechter-commissaris de aanbieder van de content ook in de gelegenheid stellen om
te worden gehoord voordat een machtiging op basis van 125p Sv wordt afgegeven. Met
het vereiste van een rechterlijke machtiging is een zorgvuldige afweging van de belangen
gewaarborgd.
Censuur is het vooraf verbieden van het publiceren van informatie of meningen. In
de drie aangehaalde voorbeelden zijn uitingen niet van tevoren verboden. Wel wordt
in een tweetal gevallen gehandhaafd op inhoud die bij wet verboden is.
Telegram CEO Pavel Durov wordt, door de Franse justitie, verdacht van medeplichtigheid
aan fraude, witwassen en de verspreiding van kinderporno1. Telegram is een instant messaging-applicatie die in 2013 is gemaakt en die in meerdere
zaken voorkomt met betrekking tot verschillende misdrijven (seksueel kindermisbruik2, mensenhandel, drugshandel, georganiseerde misdaad).3 De wet regelt dat internetdiensten strafbare inhoud zoals kinderporno weg moeten
halen op verzoek van de politie4. De Franse justitie, Franse opsporingsdiensten en openbare klagers en diverse justitiepartners
hebben vaker juridische verzoeken bij Telegram ingediend nadat Telegram gebruikers
in opsporingsonderzoek tevoorschijn kwamen. Omdat geen van hen reactie kreeg, heeft
de Franse justitie een onderzoek geopend naar de mogelijke strafrechtelijke aansprakelijkheid
van de beheerders van Telegram bij het plegen van deze misdrijven.
Ook in Nederland moeten platformen terroristische inhoud of kinderpornografisch materiaal
op verzoek en/of verwijderbevel van de politie, justitie of de Autoriteit online Terroristisch
en Kinderpornografisch Materiaal (ATKM) verwijderen. Voor de aanpak van online beeldmateriaal
van seksueel kindermisbruik en terroristische content verwijs ik u naar de meest recente
beleidsbrief over dit onderwerp van de Minister van Justitie en Veiligheid.5
Content moderatie en schadelijke content
In een brief aan het Amerikaanse Congres stelt Mark Zuckerberg, oprichter, voorzitter
van de raad van bestuur en CEO van Meta, dat medewerkers van de Amerikaanse overheid
tijdens de COVID pandemie «herhaaldelijk druk hebben uitgeoefend» op teams van Meta
om content weg te halen, en dat de FBI Meta heeft gewaarschuwd over mogelijke Russische
desinformatie over de Biden familie. Zuckerberg geeft aan «dat het uiteindelijk de
beslissing van Meta is om content wel of niet weg te halen» en dat hij het beleid
omtrent contentmoderatie op het platform sindsdien heeft aangepast.
Naast illegale content is er ook schadelijke online content die vaak legaal is, zoals
desinformatie. Het lid Van Houwelingen vraagt wat de positie van het kabinet is op
het begrip «desinformatie». Het kabinet ziet desinformatie als misleidende informatie
die doelbewust en veelal heimelijk wordt verspreid met de intentie schade toe te brengen
aan het publieke debat, democratische processen, de open en kenniseconomie of de volksgezondheid.
Het is een vorm van schadelijke maar vaak legale content. Bij de aanpak van desinformatie
dienen grondrechten zoals de vrijheid van meningsuiting centraal te staan.6
Overheden hebben met het oog op dit grondrecht geen bevoegdheid om schadelijke maar
niet illegale content te laten verwijderen. Sociale mediabedrijven maken daarom altijd
hun eigen onafhankelijke afweging over wat ze doen met schadelijke content, zoals
desinformatie. Hierover moeten ze gebruikers wel transparant informeren, bijvoorbeeld
in gebruikersvoorwaarden.7 Een gebrek aan content-moderatie door platformen kan evengoed negatieve gevolgen
hebben voor de vrijheid van meningsuiting als te strenge moderatie. Bijvoorbeeld wanneer
illegale of schadelijke online content normale uitingen overstemt of een vijandige
sfeer creëert waardoor mensen zich terugtrekken uit het online debat. Burgers moeten
het vrije en open debat in een veilige en vertrouwde online omgeving kunnen voeren.
Het kabinet wil het daarom voor burgers makkelijker maken en burgers faciliteren zodat
zij ergens terecht kunnen met klachten die platformen volgens hen onvoldoende oplossen.
We brengen de content-moderatiepraktijken van verschillende digitale platformen in
Nederland in kaart.
Volgens de Digitale Dienstenverordening (DSA) moeten zeer grote online platformen
zoals Instagram en Facebook verantwoordelijkheid nemen voor hun content-moderatie
en transparant zijn over hun gebruikersvoorwaarden richting gebruikers, ook wanneer
berichten van gebruikers worden verwijderd of minder worden versterkt. Gebruikers
moeten in bezwaar kunnen gaan tegen beslissingen van platformen, en makkelijk melding
kunnen doen van berichten die illegaal zijn of niet voldoen aan de gebruikersvoorwaarden
van het platform. Platformen moeten reageren op deze meldingen en optreden wanneer
het om illegale content gaat.
Artikel 34 en 35 van de DSA voegen daar voor zeer grote online platformen en zoekmachines
verdere verplichtingen aan toe. Deze zeer grote online platformen en zoekmachines
zijn verplicht om de systeemrisico’s in kaart te brengen van hun diensten voor de
grondrechten van burgers, negatieve effecten op de burgerdialoog, verkiezingsprocessen,
de openbare veiligheid, de bescherming van de volksgezondheid en minderjarigen en
ernstige negatieve gevolgen voor het lichamelijke en geestelijke welzijn van een persoon.
Zeer grote online platformen moeten «redelijke, evenredige, en doeltreffende» risicobeperkende
maatregelen nemen. Voorbeelden van zulke maatregelen zijn snellere en kwalitatievere
inhoudsmoderatie, aanpassingen van het algoritmisch systeem zodat bijvoorbeeld verspreiding
van schadelijke content wordt verminderd zonder dat berichten worden verwijderd. Maar
ook aanpassingen van hun online interface, samenwerking met andere platformen of organisaties,
voorlichting en van context voorzien, aanpassing van hun reclamesystemen of het duidelijk
als zodanig herkenbaar maken van gemanipuleerde «deepfake» beelden.
De Europese Commissie houdt hierop toezicht vanuit de DSA. Dit gebeurt niet op het
niveau van individuele berichten, maar op het niveau van de bedrijfssystemen en processen
die zeer grote platformen en zoekmachines hebben ingericht om de door henzelf geconstateerde
risico’s te mitigeren. Een door het platform gekozen onafhankelijke derde partij moet
deze beoordelingen en maatregelen controleren, en wetenschappers moeten toegang hebben
tot data om te kunnen onderzoeken hoe de keuzes van platformen impact hebben op de
rechten van burgers. Bij het treffen van maatregelen moeten platformen de rechten
van burgers beschermen, zoals het recht op privacy en de vrijheid van meningsuiting.
Voor een volledige uitleg verwijs ik graag naar de wetstekst.8
De Europese Commissie heeft op 30 april 2024 vastgesteld dat Meta mogelijk de DSA
overtreedt9. Het gaat om misleidende advertenties, desinformatiecampagnes en gecoördineerd niet
authentiek gedrag, beperkte zichtbaarheid van politieke inhoud, en gebrekkige mechanismen
om illegale content te melden. Zo keurde Meta pro-Russische propaganda goed als advertenties
(zoals in de «Doppelganger»-campagne) en maakte het politieke posts van burgers minder
zichtbaar, wat mogelijk niet verenigbaar is met de transparantie- en verhaalverplichtingen
voor gebruikers en de verplichting om systeemrisico’s voor te verminderen. De stopzetting
van «CrowdTangle» bemoeilijkt bovendien transparantie, onder andere rondom verkiezingen.
De Commissie eist opheldering over zowel te lakse moderatie als het intern klachtenafhandelingssysteem
om klachten in te dienen tegen besluiten over inhoudsmoderatie, dat mogelijk niet
doeltreffend is. Op deze manier beschermt de DSA burgers tegen mogelijke inbreuken
op de vrijheid van meningsuiting door zeer grote online platformen als Facebook.
Uitings- en platformverboden
In Brazilië heeft het Hooggerechtshof besloten om X te blokkeren na het negeren van
gerechtelijke bevelen en het terugtrekken van een wettelijke vertegenwoordiger. Net
als in de EU zijn platformen als X in Brazilië verplicht om vertegenwoordigers aan
te stellen. In Brazilië hebben deze ook de verantwoordelijkheid actie te ondernemen
op basis van gerechtelijke bevelen. Het hooggerechtshof in Brazilië vroeg X om accounts
te verwijderen die smadelijke nep-berichten verspreidden. Inmiddels heeft X aan deze
bevelen voldaan en is X na betaling van een boete weer toegankelijk. Eerder is ook
Whatsapp geblokkeerd, omdat het niet reageerde op politieverzoeken en heeft Telegram
een lokale vertegenwoordiger aangesteld nadat het bedrijf geblokkeerd zou worden omdat
het verzoeken van Braziliaanse autoriteiten negeerde.
Zoals eerder beschreven, is het onder de DSA in de EU verplicht voor platformen om
tegen illegale berichten op te treden en onder het strafrecht om deze te verwijderen,
maar zijn platformen niet verplicht om niet-illegale schadelijke berichten te verwijderen.
Lidstaten bepalen elk voor zich welke inhoud wel of niet illegaal is. Wanneer platformen
niet voldoen aan de wettelijke bepalingen uit de DSA, is het mogelijk voor de Europese
Commissie als toezichthouder van zeer grote online platformen en zoekmachines om geldboeten
op te leggen die maximaal 6% bedragen van de totale wereldwijde omzet. Daarnaast is
het mogelijk voor zeer grote online platformen en zoekmachines om toezeggingen te
doen om de nalevering van de DSA te waarborgen. Dit is bijvoorbeeld recent gedaan
in het onderzoek van de Europese Commissie naar AliExpress, waardoor AliExpress aangeboden
toezeggingen, zoals op het gebied van transparantie van advertenties, door de Europese
Commissie bindend zijn gemaakt.10 Indien alle bevoegdheden om een einde te maken aan een inbreuk op deze verordening
zijn uitgeput, de inbreuk voortduurt en ernstige schade veroorzaakt, en die inbreuk
neerkomt op een strafbaar feit waarbij het leven of de veiligheid van personen wordt
bedreigd, kan de Europese Commissie de digitale dienstencoördinator van het land van
vestiging van het platform verzoeken om de toegang tot de online-interface van de
aanbieder van tussenhandeldiensten waarop de inbreuk plaatsvindt, tijdelijk te beperken.
Ten aanzien van de vraag van het lid van Houwelingen over de vrijheid van meningsuiting
en platformen, kan ik u verzekeren dat ook in Nederland platformen niet boven de wet
staan. Indien aan gerechtelijke bevelen herhaaldelijk en in lijn met de situatie van
Telegram geen opvolging wordt gegeven, zou een arrestatiebevel mogelijk kunnen zijn
volgens het strafrecht. Ook kan in lijn met de hierboven beschreven procedure vanuit
de DSA de toegang tot een platform, wanneer alle andere juridische mogelijkheden zijn
uitgeput en na uitvoerig hoor-en-wederhoor, tijdelijk worden geblokkeerd.
De Europese Commissie is op 18 december 2023 een formele procedure gestart tegen X.
Deze procedure loopt nog. Op 12 juli 2024 heeft de Europese Commissie zijn voorlopige
bevindingen naar X gestuurd, waarbij zij verschillende wetsovertredingen heeft geconstateerd
waarbij X onvoldoende transparant is gebleken.11 Zoals het onvoldoende toegang geven tot publieke onderzoeks-data aan wetenschappers
en het niet bieden van transparantie over advertenties op het platform. X heeft nu
de kans om hierop te reageren. Op 17 januari jl.12 heeft de Commissie aanvullende informatie opgevraagd met betrekking tot de aanbevelingsalgoritmen
van X. X moest interne documentatie over het algoritme en recente wijzigingen aanleveren
voor 15 februari, alle documentatie er over dit hele jaar bewaren, en de Commissie
toegang verschaffen tot alle technische interfaces die het mogelijk maken om feiten
over content-moderatie op X vast te stellen.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
E. van Marum
Ondertekenaars
-
Eerste ondertekenaar
E. van Marum, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties