Brief regering : Content moderatie en vrijheid van meningsuiting op online platformen
26 643 Informatie- en communicatietechnologie (ICT)
33 826
Mensenrechten in Nederland
Nr. 782
BRIEF VAN DE MINISTER VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 21 september 2021
De afgelopen tijd hebben verschillende sociale media platformen accounts van Kamerleden
tijdelijk geblokkeerd of berichten van een label voorzien omdat zij van mening zijn
dat de gebruiksvoorwaarden werden geschonden. Op 22 juni jl. ontving ik in reactie
daarop het verzoek van het lid Van Meijeren (FVD) om een kabinetsstandpunt over wat
het lid Van Meijeren aanduidt als «politiek gemotiveerde censuur door de grote sociale
mediaplatformen». In deze brief ga ik, mede namens de Minister van Justitie en Veiligheid,
de Minister voor Rechtsbescherming en de Staatssecretaris van Economische Zaken en
Klimaat, in op dit verzoek.
Achtereenvolgens zal ik ingaan op de mogelijkheid van platformen om online content
te reguleren, het toepasselijke juridische kader en de rol van de overheid. Ik zal
daarbij onderscheid maken tussen enerzijds de aanpak van illegale content, en anderzijds
de aanpak van overige vormen van ongewenste content.
Rol en positie van platformen
Door gebruik te maken van diensten van online platformen – bijvoorbeeld door een account
aan te maken, het online spelen van games, het plaatsen van eigen content of het lezen
van content van overige gebruikers – gaan gebruikers een civielrechtelijke overeenkomst
met dat platform aan, waarbij het toepasselijke rechtstelsel bij geschillen wordt
bepaald door het betreffende platform. In het kader van de contractvrijheid staat
het aanbieders van online platformen vrij om grenzen te stellen aan het soort content
op hun platform en de manier waarop hun platform wordt gebruikt. Ook staat het hen
vrij actie te ondernemen indien zij van mening zijn dat gebruikers hun gebruiksvoorwaarden
overtreden. Dat behelst ook de mogelijkheid om content te verwijderen of een gebruikersaccount
op te schorten. Het idee hierachter is, dat gebruikers zelf de vrijheid en mogelijkheid
hebben om te bepalen of zij gebruik maken van een bepaald online platform – en daarmee
instemmen met de gebruikersvoorwaarden – of niet.
Bij bepaalde vormen van online content kan een wettelijke verplichting gelden om content
ontoegankelijk te maken voor gebruikers. Dat geldt bijvoorbeeld bij illegale (strafbare
of onrechtmatige) content. Ervaring leert dat bekende internet tussenpersonen in de
regel in hun gebruikersvoorwaarden aangeven dat het openbaar maken, bewaren, publiceren
en delen van illegale content niet is toegestaan. Bij content die niet strafbaar of
onrechtmatig is, maar door sommigen wel als ongewenst wordt beschouwd, hebben platformen
een grote marge voor eigen appreciatie op basis van bovengenoemde contractvrijheid.
Zo kunnen zij bijvoorbeeld bepalen dat via een platform geen naaktfoto’s mogen worden
gedeeld. Daarbij geldt, net als in de fysieke wereld, het uitgangspunt dat een dergelijke
beperking niet mag leiden tot discriminatie en daarmee tot ongerechtvaardigde uitsluiting
van personen op basis van een bepaalde discriminatiegrond. Het uitsluiten van bepaalde
politieke overtuigingen op internetfora is toegestaan voor zover daarmee een wezenlijk,
legitiem en gerechtvaardigd belang wordt gediend. Dat men op een bepaald internetforum
alleen met gelijkgezinden in gesprek wenst te gaan om zo tot verdere verdieping van
de discussie te kunnen komen is een dergelijk belang. Zolang er maar andere fora zijn
waarbij ook het andere geluid naar voren kan komen.
Om te beoordelen of content in overeenstemming is met de gebruikersvoorwaarden, hebben
internet tussenpersonen verschillende modi operandi. Sommigen kiezen voor het actief
modereren van content, waarbij content eerst wordt gecontroleerd voordat deze wordt
opgeslagen of gepubliceerd. Bij de wat grotere chatfora en sociale media platformen
stuit een dergelijke benadering al snel op praktische uitvoeringsproblemen: het aantal
posts is bij die platformen zo groot, dat controle vooraf praktisch onmogelijk is.
De meeste internet tussenpersonen werken daarom met een controle achteraf, al dan
niet op basis van een systeem waarbij content wordt gecheckt als daarover een melding
binnenkomt. Deze meldingen kunnen komen van gebruikers, professionele moderatoren,
fact-checkers of nationale bevoegde autoriteiten. Ook wordt gebruik gemaakt van kunstmatige
intelligentie, waardoor posts die mogelijk in strijd zijn met de gebruikersvoorwaarden
automatisch worden gedetecteerd en ter beoordeling worden voorgelegd aan moderatoren.
Internet tussenpersonen kunnen verschillende maatregelen nemen als een gebruiker zich
niet aan de gebruikersvoorwaarden houdt. Een repressieve vorm van interventie is het
verwijderen van content die in strijd is met de interne gebruikersvoorwaarden. Sommige
platformen gaan ook over tot het schorsen van gebruikers door accounts tijdelijk of
permanent op te heffen. Minder vergaande interventies zijn het niet langer aanbevelen
van bepaalde vormen van content, het geven van een waarschuwing bij het delen van
bepaalde vormen van content of het labelen van content met bijvoorbeeld fact-check
of advertentie labels. Deze labels hebben tot doel een gebruiker meer informatie te
geven om de content zelf beter te beoordelen. Daarnaast zijn er ook maatregelen die
zich richten op beheerders of gebruikers die de content verspreiden. Daarbij kan gedacht
worden aan het opschorten van advertentie-inkomsten, of het niet langer aanbevelen
van een bepaald account bij andere gebruikers van het platform.
Juridisch kader
Het juridisch kader rond online content is in ontwikkeling. Ten aanzien van de norm
wat wel en niet mag worden gepubliceerd op het internet, geldt als uitgangspunt de
vrijheid van meningsuiting, die o.a. wordt gewaarborgd in artikel 7 van de Grondwet
en in artikel 10 van het Europees Verdrag tot bescherming van de Rechten van de Mens
en de fundamentele vrijheden (EVRM). De vrijheid van meningsuiting kan slechts worden
beperkt op grond van een wettelijke bepaling en wanneer die beperking een gerechtvaardigd
doel dient en noodzakelijk is in een democratische samenleving. Daarbij wordt geen
onderscheid gemaakt tussen uitingen in de fysieke wereld en online content: dat wat
strafbaar en onrechtmatig is in de fysieke wereld is dat ook online. In de Nederlandse
context betekent dat, dat kinderpornografie, terroristische inhoud en hate speech niet worden beschermd door de vrijheid van meningsuiting. Deze drie categorieën vallen
onder de noemer «strafbare content». De Audiovisuele Mediadienstenrichtlijn verplicht
videoplatformdiensten maatregelen te treffen om gebruikers te beschermen tegen deze
categorieën van content.
Daarnaast geven de gebruikersvoorwaarden van online platformen aan welke privaatrechtelijke
normen van toepassing zijn op het betreffende platform. Gebruikers verbinden zich
hier zelf aan. De rechter kan grondrechten horizontale werking toekennen, door bijvoorbeeld
bij de uitleg van open privaatrechtelijke normen/belangen grondrechtelijke bescherming
te betrekken. Die afweging wordt per geval door een rechter gemaakt. Zo besloot de
rechtbank Amsterdam in oktober 2020 dat Facebook het recht heeft om pagina’s offline
te halen wanneer deze in strijd zijn met haar eigen COVID-19 beleid.1 In een andere zaak uit september 2020 beoordeelde de Rechtbank Amsterdam dat content
die door YouTube terecht als desinformatie wordt aangemerkt door het platform verwijderd
mag worden.2 De vrijheid van meningsuiting is derhalve niet absoluut en mag in bepaalde gevallen
mede op basis van gebruikersvoorwaarden worden ingeperkt ten behoeve van bijvoorbeeld
de rechten van anderen en de volksgezondheid.
Naast normstelling voorziet het juridisch kader ook in de mogelijkheid voor de rechter-commissaris
om verwijdering van content te gelasten. Ten aanzien van de handhaving van het tegengaan
van verspreiding van kinderpornografische en terroristische online inhoud liggen twee
wetsvoorstellen voor, die onder meer voorzien in de oprichting van een Autoriteit
die verwijderbevelen kan uitvaardigen en bestuursrechtelijke boetes kan opleggen aan
aanbieders van een hostingsdienst die deze vormen van strafbare content niet of niet
snel genoeg deze online inhoud ontoegankelijk maken.3
De wettelijke kaders van internet tussenpersonen die elektronische diensten leveren
zijn uiteengezet in de Richtlijn Elektronische Handel (REH).4 Deze Richtlijn wordt momenteel herzien in de context van de door de Europese Commissie
gelanceerde Digital Services Act (DSA). Zowel de REH als de DSA regelen een beperkte
aansprakelijkheid voor internet tussenpersonen voor de inhoud die zij bewaren, publiceren
of verspreiden. Dit voorkomt dat platformen, om zeker te zijn dat ze niet aansprakelijk
kunnen worden gesteld, actief informatie controleren en eventueel tegenhouden voordat
ze het hosten.
Daarnaast is het ook belangrijk de pluraliteit van online platformen te beschermen,
zodat mensen op verschillende plekken hun mening kunnen uiten. Het kabinet zet hier
ook op in bij de onderhandelingen over het Commissievoorstel voor de Wet inzake digitale
markten.5
Aanpak en beleid illegale content
Ten aanzien van online kinderporno en terroristische inhoud ziet het kabinet een taak
voor de overheid weggelegd om de verspreiding van deze online inhoud actief tegen
te gaan. Voor de aanpak van online kinderporno verwijzen wij u naar de meest recente
beleidsbrief over dit onderwerp van de Minister van Justitie en Veiligheid.6
Ten aanzien van de oprichting van de autoriteit Kinderporno en Terroristisch Online
Inhoud is uw Kamer geïnformeerd per brief op 20 november 20207 en in de beantwoording van de vragen van het Schriftelijk Overleg hierover op 25 maart
2021.8 De EU-verordening inzake het tegengaan van de verspreiding van terroristische online-inhoud
(TOI-verordening) is inmiddels aangenomen en wordt van toepassing met ingang van 7 juni
2022. Nederland en andere EU-lidstaten moeten voor die datum de verordening hebben
geïmplementeerd, inclusief het oprichten van de hierboven genoemde Autoriteit en het
vaststellen van benodigde uitvoeringsregelgeving.
Ten aanzien van de aanpak van hate speech is het kabinet terughoudender om actief op te treden. Online discriminatie kan worden
gemeld bij het Meldpunt internet discriminatie (MiND), dat een onafhankelijke juridische
toetsing uitvoert om te bepalen of sprake is van een discriminatoire uiting, al dan
niet gevolgd door een verwijderverzoek. Daarnaast kan het Openbaar Ministerie besluiten
om bepaalde uitingen strafrechtelijk te vervolgen. Deze terughoudendheid heeft deels
te maken met het feit dat bij hate speech veelal niet eenvoudig is vast te stellen of sprake is van een strafbare uiting en
bij een te strikte handhaving een ongerechtvaardigde beperking van de vrijheid van
meningsuiting op de loer ligt. Overigens onderzoekt het kabinet naar aanleiding van
de gewijzigde motie van het lid Jasper van Dijk de mogelijkheid om de aanpak van online
racisme en antisemitisme te intensiveren.9
Illegale content bestaat naast strafbare content ook uit andere onrechtmatige content.
Daaronder vallen onder meer aantastingen van het privéleven, de eer en goede naam
en onrechtmatige verwerkingen van persoonsgegevens. De voornemens van het kabinet
om onrechtmatige content die mensen persoonlijk raakt aan te pakken zijn uiteengezet
in de beleidsreactie op het onderzoek naar een laagdrempelige voorziening voor de
verwijdering van onrechtmatige content.10
Voor het standpunt van de Nederlandse regering ten aanzien van de DSA verwijzen wij
u naar het BNC-fiche dat hierover is opgesteld.11 Met het wetsvoorstel voor de DSA wil de Europese Commissie bijdragen aan de bestrijding
van illegale content en systemische risico’s die de allergrootste online platformen
met zich meebrengen. De DSA moet bijdragen aan een goede werking van de interne markt
voor diensten van tussenpersonen, en het uiteenzetten van eenduidige regels die leiden
tot een veilige, voorspelbare, en betrouwbare online omgeving, waarbij fundamentele
rechten uit het Handvest van de grondrechten van de Europese Unie effectief zijn beschermd.
Online platformen hebben het recht, en in het geval van illegale content zelfs de
plicht, om hun platform te modereren en in dat kader bijvoorbeeld content te verwijderen.
Wel vindt het kabinet het zeer belangrijk dat de platformen daarbij de vrijheid van
meningsuiting als uitgangspunt hanteren. De mate waarin internet tussenpersonen transparant
zijn over de wijze van beoordeling bij content moderatie en de gevolgen van een overtreding
van de interne gebruikersvoorwaarden verschilt nogal. Het kabinet is van mening dat
wanneer platformen content verwijderen of personen blokkeren ze transparant moeten
zijn over de redenen daarvoor en die besluiten moeten motiveren. Platformen moeten
daarnaast ook helder zijn over hun schorsingsbeleid, en betrokkenen moeten te allen
tijde bezwaar kunnen maken tegen dit soort beslissingen. In ieder geval (ook) via
een rechtsgang. Regulering kan een bijdrage leveren aan verbetering op deze punten.
In het Commissievoorstel voor de DSA worden deze punten geadresseerd. Het kabinet
steunt mede hierom de DSA en zal zich er hard voor maken om deze elementen uit het
voorstel te behouden.
Aanpak en beleid ongewenste content
Ingewikkelder wordt het, wanneer content niet illegaal is, maar wel tot ongewenste
maatschappelijke reacties leidt. Daarbij kan worden gedacht aan het verspreiden van
des- en misinformatie. Zoals eerder aangegeven in de brief over nieuwe ontwikkelingen
beleidsinzet bescherming democratie tegen desinformatie12 valt het juridisch verbieden van bepaalde informatie, alleen op grond van het feit
dat de informatie onjuist of misleidend is, zonder aanvullende eisen, zoals het schaden
van iemands reputatie of de rechten van een ander, moeilijk te rijmen met het recht
op vrijheid van meningsuiting. Een algemeen verbod op de verspreiding van desinformatie
of niet-objectieve informatie is niet verenigbaar met de internationale normen voor
beperkingen van de vrijheid van meningsuiting.
Op het gebied van desinformatie is er momenteel sprake van zelfregulering door de
online platformen (code of practice on online disinformation) welke naar verwachting eind 2021 herzien wordt. De Europese Commissie heeft voor
deze herziening richtsnoeren gepubliceerd waarmee wordt beoogd de huidige code te
verbeteren vooruitlopend op de DSA.13 Door het ontwerp van de voorgestelde DSA zal de gedragscode een co-reguleringsinstrument
worden voor de aanpak van desinformatie.
Zoals eerder gesteld zijn aanbieders van online platformen in beginsel vrij om verdere
grenzen te stellen aan wat zij toelaatbaar gebruik van hun diensten vinden en om actie
te ondernemen wanneer deze voorwaarden worden overtreden. De vraag is of het wenselijk
is dat de online platforms zelfstandig deze gebruikersvoorwaarden bepalen. De totstandkoming
van deze voorwaarden valt buiten de reikwijdte van het voorstel voor de DSA. Zoals
het Rathenau Instituut in zijn recente onderzoek «Online ontspoord» aangeeft ligt de focus van regulering momenteel met name op illegale content, en
niet op overige vormen van ongewenste content.14 Uit het onderzoek van Rathenau blijkt ook dat veel gedragingen online wel een illegale
component kunnen hebben, maar dat dit niet altijd duidelijk is voor slachtoffer of
dader. Meer onderzoek naar mogelijkheden hoe de overheid om kan gaan met de soms botsende
ruimte tussen de vrijheid van meningsuiting en de bewegingsruimte en veiligheid van
mensen online is nodig.
Aandachtspunten voor toekomstige beleidsontwikkeling
Bij de beoordeling of content illegaal of ongewenst is, speelt de context waarin een
uiting wordt gedaan een belangrijke rol. Deze context wordt onder andere bepaald door
de concrete situatie waarin een uiting is gedaan, de intentie van de afzender, de
bedoelde ontvanger, de maatschappelijke en politieke omstandigheden, en het tijdgewricht.15 In het geval van ongewenste (maar niet illegale) content is moderatie een ingewikkelde
afweging, omdat de vrijheid van meningsuiting het uitgangspunt is en bijzonder zwaar
weegt. Daarom is het van belang dat er altijd een rechtsgang open staat tegen besluiten
van sociale mediaplatformen en/of andere manieren om bezwaar te maken tegen de beslissingen
die zij nemen.16
Een komend kabinet moet de spanning tussen de vrijheid van meningsuiting en de bewegingsruimte
en veiligheid van burgers online, en de rol van de overheid daarbij verder onderzoeken.
Wat in ieder geval van belang is, is dat gebruiksvoorwaarden, en vooral ook de toepassing
ervan, de grondrechten van gebruikers niet ontoelaatbaar beperkt. Daarom is het positief
dat in artikel 12 van de DSA wordt geregeld dat online platformen bij het toepassen
van hun gebruiksvoorwaarden gepaste aandacht moeten hebben voor de rechten en gewettigde
belangen van alle betrokken partijen, waaronder de van toepassing zijnde, in het Handvest
verankerde, grondrechten van de afnemers van de dienst. Daarnaast moeten de zeer grote
online platforms (Very Large Online Platforms) maatregelen nemen om systemische risico’s
van hun diensten aan te pakken. Een van deze risico’s betreft de eventuele negatieve
effecten op de uitoefening van de grondrechten, de vrijheid van meningsuiting en van
informatie en non-discriminatie (art 26.1 DSA). Deze bepalingen moeten censuur en
discriminatie op basis van politieke opvattingen op online platformen tegengaan en
hebben de expliciete steun van het kabinet. Het kabinet zal uw Kamer op de hoogte
houden van ontwikkelingen rondom de DSA.
De Minister van Binnenlandse Zaken en Koninkrijksrelaties,
K.H. Ollongren
Ondertekenaars
-
Eerste ondertekenaar
K.H. Ollongren, minister van Binnenlandse Zaken en Koninkrijksrelaties