Brief regering : Digital Services Act en Kinderrechten
36 200 VII Vaststelling van de begrotingsstaten van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (VII) voor het jaar 2023
Nr. 162
BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 14 april 2023
Op 14 november 2022 heeft de Tweede Kamer een motie1 van de leden Dekker-Abdulaziz en Ceder aangenomen (Handelingen II 2022/23, nr. 28, item 9). In deze motie wordt de regering verzocht om op nationale en Europese schaal sociale
mediaplatforms te dwingen de algoritmes op hun platformen voor kinderen uit te zetten
of aangepaste varianten te maken. Tijdens het wetgevingsoverleg Begrotingsonderdelen
van BiZa, EZK en J&V die zien op digitalisering en dat op 14 november 2022 plaatsvond,
heb ik toegezegd om schriftelijk terug te komen op de vraag wat de Verordening digitale
diensten («Digital Services Act», afgekort: «DSA»)2 hierover regelt.3 In deze brief ga ik in op deze vraag en reageer ik op de eerdergenoemde motie. Deze
brief zend ik mede namens de Minister van Economische Zaken en Klimaat vanwege haar
verantwoordelijkheid voor (de uitvoering van) de DSA.
De DSA, die op 19 oktober 2022 door de Raad van de Europese Unie en het Europees Parlement
is ondertekend en op 16 november 2022 in werking is getreden, reguleert online tussenhandeldiensten,
waaronder online platforms, en regelt het toezicht daarop. De algemene verplichtingen
in de DSA gaan vanaf 17 februari 2024 voor alle partijen gelden. De verplichtingen
voor zeer grote online platforms zoals TikTok, Instagram en YouTube, worden al eerder
van toepassing, naar verwachting vanaf medio 2023. Hieronder zal ik de regels uit
de DSA over aanbevelingssystemen en de bescherming van kinderen (minderjarigen) verder
toelichten.
Ik zie dat sociale media risico’s voor gebruikers met zich meebrengen. Zo kunnen gebruikers
van sociale media in een zogenaamde informatiefuik terecht komen. Aanbevelingssystemen
kunnen daar een rol in spelen doordat ze de (vermeende) voorkeuren van gebruikers
gebruiken voor het aanbevelen van content. Als gebruikers daardoor steeds meer van
hetzelfde voorgeschoteld krijgen, komen zij in een informatiefuik terecht. Ook kunnen
sociale media de verspreiding van desinformatie in de hand werken, schermverslaving
als gevolg hebben of bijdragen aan de ontwikkeling van een negatief zelfbeeld bij
kinderen en (jong-) volwassenen.
Toch acht ik het niet wenselijk om sociale mediaplatforms in zijn algemeenheid te
verplichten om algoritmes uit te zetten voor minderjarigen. Hoewel ik erken dat algoritmen
risico’s kunnen creëren, biedt de inzet ervan ook voordelen voor gebruikers. Ze kunnen
juist ook worden gebruikt om minderjarigen passende content aan te bieden. Zo kunnen
algoritmen er bijvoorbeeld aan bijdragen dat inhoud geordend kan worden, zodat aan
kinderen enkel een bepaalde categorie inhoud getoond wordt, die voor hun leeftijd
geschikt is. Een algemeen verbod op het gebruik van algoritmes voor kinderen zou een
positief gebruik ervan onmogelijk maken en kinderen en ouders de mogelijkheid ontnemen
om categorieën inhoudt te selecteren. Daarom zie ik een algeheel verbod op het gebruik
van algoritmes niet als een proportionele maatregel. De DSA vindt hierin mijns inziens
de juiste balans door de keuzevrijheid van kinderen en ouders te respecteren en mogelijke
negatieve effecten van algoritmes aan te pakken.
De DSA en aanbevelingsalgoritmes
De DSA stelt in de artikelen 27 en 38 voorwaarden aan het gebruik van aanbevelingsalgoritmes.
• Op grond van artikel 38 moeten zeer grote online platforms en zoekmachines – zoals
TikTok, Instagram en YouTube – hun gebruikers ten minste één optie aanbieden waarmee
ze de dienst kunnen gebruiken zonder dat die dienst gebruik maakt van profilering
voor het doen van aanbevelingen. Gebruikers van deze platformen en zoekmachines krijgen
dus de mogelijkheid om dit soort gepersonaliseerde aanbevelingssystemen uit te zetten
en in plaats daarvan gebruik te maken van een aanbevelingssysteem dat niet gebaseerd
is op profilering. Dit is een belangrijke waarborg voor gebruikers. Zeer grote online
platforms en zoekmachines zullen dan een andere manier moeten aanbieden voor het ordenen
van de informatie die zij toegankelijk maken of verspreiden. Bijvoorbeeld door informatie
in chronologische volgorde van het moment van uploaden te presenteren. Het risico
dat kinderen in een informatiefuik komen is bij een niet-gepersonaliseerde presentatie
van informatie kleiner. Omdat de DSA niet voorschrijft wat voor soort alternatief
systeem de zeer grote online platforms en de zeer grote online zoekmachines moeten
aanbieden en zij hier dus enige keuzevrijheid hebben, zal ik de komende tijd kritisch
volgen op welke wijze zeer grote online platforms- en zoekmachines invulling geven
aan deze verplichting en wat dat betekent voor minderjarige gebruikers.
• Op grond van artikel 27 moeten alle online platforms – ongeacht het aantal gebruikers
– bovendien transparant zijn over de belangrijkste parameters die in hun aanbevelingssystemen
worden gebruikt. Tevens dienen zij transparant te zijn over eventuele opties voor
afnemers van de dienst om deze parameters te wijzigen of te beïnvloeden. Als gebruikers
de mogelijkheid hebben om het aanbevelingssysteem aan te passen, dan moet die functionaliteit
makkelijk toegankelijk zijn.
• Omdat zeer grote online platforms moeten voldoen aan zowel artikel 27 als 38 moeten
zij dus ten minste één makkelijk toegankelijke optie gaan bieden waarmee mensen het
gebruik van een aanbevelingsalgoritme op basis van profilering uit moeten kunnen zetten.
De DSA en de specifieke bescherming van minderjarigen
De DSA bevat daarnaast nog diverse bepalingen waarmee de bescherming van minderjarigen
online gaat worden verbeterd. Voor de volledigheid en om uw Kamer zo goed mogelijk
te informeren zijn die hierna beschreven.
• Aanbieders van tussenhandeldiensten, zoals online platforms, die zich voornamelijk
op minderjarigen richten moeten bijzondere inspanningen leveren om de uitleg over
hun algemene voorwaarden eenvoudig en begrijpelijk te maken voor minderjarigen. Of
een tussenhandeldienst zich voornamelijk richt op minderjarigen kan onder meer blijken
uit het ontwerp van de dienst, de marketing ervan, of uit het feit de dienst overwegend
door minderjarigen worden gebruikt (Artikel 14, derde lid).
• Onlineplatforms die toegankelijk zijn voor minderjarigen worden verplicht om passende
en evenredige maatregelen te nemen om een hoog niveau van privacy, veiligheid en bescherming
van minderjarigen binnen hun dienst te waarborgen (artikel 28 lid 1). Dit kunnen zij
bijvoorbeeld doen door hun online interfaces of onderdelen daarvan standaard zo te
ontwerpen dat het hoogste niveau van privacy, veiligheid en beveiliging voor minderjarigen
wordt gewaarborgd. Dit kan worden gedaan door normen voor de bescherming van minderjarigen
vast te stellen, of door deel te nemen aan gedragscodes ter bescherming van minderjarigen.
Online platforms moeten verder rekening houden met de beste praktijken en beschikbare
richtsnoeren, zoals in de mededeling van de Europese Commissie over «Een digitaal
decennium voor kinderen en jongeren: de nieuwe Europese strategie voor een beter internet
voor kinderen (BIK+)».
Aanbieders van onlineplatforms mogen geen reclame tonen op hun interface op basis
van profilering met gebruikmaking van persoonsgegevens van minderjarige gebruikers.
Deze verplichting geldt wanneer de dienst zich er met redelijke zekerheid van bewust
is dat de afnemer van de dienst minderjarig is (artikel 28 lid 2). Dit artikel draagt
bij aan de doelstelling van het coalitieakkoord om minderjarigen beter te beschermen
tegen niet-passende online reclame.
• Onlineplatforms wordt het verboden om gebruik te maken van zogenaamde «dark patterns».
Zij mogen hun online interfaces niet zodanig ontwerpen, organiseren of beheren dat
gebruikers daardoor zouden kunnen worden misleid of gemanipuleerd, of dat hun vermogen
om vrije en geïnformeerde beslissingen te nemen wordt verstoord (artikel 25 lid 1).
Dit verbod beschermt uiteraard ook kinderen, want zij zijn kwetsbaarder voor beïnvloeding
door dit soort «dark patterns». Verdere uitwerking van dit verbod kan door de Europese
Commissie nog worden gegeven in richtsnoeren.
• Zeer grote onlineplatforms- en zoekmachines – zoals Google, Facebook, TikTok en YouTube
– worden verplicht om ten minste een keer per jaar zogenaamde «systeemrisico’s» die
voortvloeien uit het ontwerp of uit de werking van hun diensten te onderzoeken (artikel
34). Als zij vaststellen dat hun dienst vatbaar is voor dit soort risico’s dan moeten
ze risicobeperkende maatregelen nemen (artikel 35).
Eén van de systeemrisico’s die zij op grond van de DSA nadrukkelijk moeten onderzoeken
is of hun dienst(en) werkelijke of voorzienbare negatieve effecten hebben op de bescherming
van minderjarigen. Een ander relevant systeemrisico in dit kader zijn ernstige negatieve
gevolgen voor het lichamelijke en geestelijke welzijn van personen. Zeer grote online
platforms moeten dus nadrukkelijk rekening houden met de negatieve effecten die hun
algoritmes kunnen hebben op kinderen en zij moeten deze systemen zo nodig aanpassen.
Ze moeten dit bovendien laten onderzoeken door externe auditors (artikel 37). Bovendien
krijgen onafhankelijke onderzoekers de mogelijkheid van toegang tot data van deze
zeer grote platforms, zodat zij ook onderzoek kunnen doen naar deze systeemrisico’s
bij een of meerdere zeer grote online platforms (artikel 40).
Met de bepalingen in de DSA over aanbevelingssystemen wordt het doel van de motie4 bereikt. Die beschouw ik hiermee als afgedaan.
Zoals toegelicht bevat de DSA naast de artikelen 27 en 38 verder nog diverse bepalingen
waarmee de bescherming van minderjarigen online gaat worden verbeterd, onder meer
tegen niet-passende online reclame, zoals in het coalitieakkoord ten doel is gesteld.
Met de DSA wordt dus een belangrijke stap gezet naar het beter beschermen van minderjarigen
die gebruikmaken van sociale mediaplatforms.
Wel hangt de mate van effectiviteit van de bepalingen af van de uitvoering die hieraan
wordt gegeven door de online platforms. Zo is het voor de bepalingen die specifiek
zien op de bescherming van minderjarigen van belang dat er adequate leeftijdsverificatie
plaatsvindt. Daarom zal ik met aandacht volgen hoe de online platforms leeftijdsverificatie
zullen toepassen.
Parallel aan het DSA-stelsel breng ik aan de hand van expertsessies in kaart hoe leeftijdsverificatie
op een adequatere manier kan plaatsvinden5. Voor de zomer zal ik een brede beleidsbrief over de bescherming van kinderen in
de digitale wereld aan uw Kamer sturen. Het onderwerp adequate leeftijdsverificatie
zal onderdeel zijn van deze brief.
De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties,
A.C. van Huffelen
Ondertekenaars
-
Eerste ondertekenaar
A.C. van Huffelen, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties