Antwoord schriftelijke vragen : Antwoord op vragen van het lid Kathmann over TikTok- algoritmes en extremisme
Vragen van het lid Kathmann (GroenLinks-PvdA) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties en de Ministers van Economische Zaken en van Justitie en Veiligheid over TikTok-algoritmes en extremisme (ingezonden 1 oktober 2025).
Antwoord van Staatssecretaris Van Marum (Binnenlandse Zaken en Koninkrijksrelaties),
van Minister Rijkaart (Binnenlandse Zaken en Koninkrijksrelaties), van Minister Karremans
(Economische Zaken) en van Minister Van Oosten (Justitie en Veiligheid) (ontvangen
9 december 2025). Zie ook Aanhangsel Handelingen, vergaderjaar 2025–2026, nr. 277.
Vraag 1
Bent u bekend met het artikel «TikTok bezorgt extreemrechtse livestreamers extra publiek
om winst te vergroten»?1
Antwoord 1
Ja.
Vraag 2
Wat is uw reactie op het artikel?
Antwoord 2
Het artikel schetst een zorgwekkende situatie. In de antwoorden op vraag 3 en 4 ga
ik hier verder op in.
Vraag 3
Vindt u het acceptabel dat TikTok, volgens berichtgeving in de NRC, met haar aanbevelingsalgoritmes
rechts-extremistische content bevoordeelt?
Antwoord 3
Extremistische en haatdragende content hoort niet thuis op online platforms zoals
TikTok en druist in tegen de gebruikersvoorwaarden die TikTok zelf hanteert. Platforms
hebben een verantwoordelijkheid voor de content die zij hosten en helpen verspreiden.
Zo verplicht artikel 34 van de digitale dienstenverordening (hierna ook: «DSA») zeer
grote online platforms (Very large online platforms, hierna: «VLOPs») zoals TikTok
tot het identificeren, analyseren en beoordelen van systemische risico's die voortvloeien
uit het ontwerp, de werking en het gebruik van hun diensten. Extremistische en haatdragende
content kan leiden tot zulke risico’s, bijvoorbeeld wanneer het negatieve gevolgen
heeft voor verkiezingsprocessen of de openbare veiligheid. Als er zulke risico’s bestaan,
dan moeten zeer grote online platforms daar adequate maatregelen tegen nemen, zoals
bijvoorbeeld de aanpassing van aanbevelingsalgoritmes (artikel 35, eerste lid DSA).
De Europese Commissie is de aangewezen toezichthouder hiervoor. Daarnaast wordt de
eigen verantwoordelijkheid van online platforms tijdens de nationale dialoog met de
internetsector ook benadrukt.
Vraag 4
Vindt u dat elk groot online platform, waaronder TikTok, moet beschikken over een
stevig nationaal moderatieteam die vanuit de eigen context content kan beoordelen?
Is dit nu op orde?
Antwoord 4
Onderzoek bevestigt het bestaan van «moderatieongelijkheid».2 Dit houdt in dat het beleid van een platform verschillend wordt toegepast per taal.
Platforms gaan hierbij voornamelijk uit van het Engels, waarbij de ongelijkheid in
de toepassing van dit beleid het grootst is bij talen uit het globale zuiden.
Het is essentieel dat grote online platforms, waaronder TikTok, beschikken over een
stevige en goed toegeruste nationale contentmoderatie die in staat is om content te
beoordelen binnen de eigen nationale context, taal en culturele gevoeligheden. Effectieve
moderatie draagt bij aan het voorkomen van schadelijke of illegale inhoud en aan de
bescherming van gebruikers. Voor effectieve moderatie zijn echter meer middelen nodig
dan voor de huidige mogelijkheid van menselijke moderatie door platforms. AI en «community notes» kunnen daar een nuttige bijdrage aan leveren. Beide kunnen ook in meer of mindere
mate beschikken over kennis over taal, cultuur en maatschappelijke context. Effectieve
moderatie vraagt voor zover nu bekend om een combinatie van menselijke (nationale)
moderatie, community notes, en/of geautomatiseerde middelen. TikTok doet dat en maakt gebruik van een combinatie
van automatische moderatiesystemen en menselijke moderatoren. In het recente DSA-transparantierapport
van TikTok geven zij aan 100 Nederlandse personen in dienst te hebben die zich wijden
aan contentmoderatie.
De DSA verplicht platforms om transparantie te bieden over de moderatie die zij verrichten,
en de wijze waarop. Zo moeten zij onder meer rapporteren over de moderatie die zij
hebben verricht, de geautomatiseerde middelen die daarbij eventueel zijn toegepast,
en over de maatregelen die zijn genomen om opleiding en bijstand te verstrekken aan
personen die de moderatie verrichten. VLOPs en zeer grote online zoekmachines (Very
large online search engines, hierna: «VLOSEs») moeten daarnaast rapporteren over de
personele middelen die worden ingezet voor inhoudsmoderatie, uitgesplitst per officiële
taal van de EU-lidstaten, en over de kwalificaties en taaldeskundigheid van deze moderatoren.
Hiermee wordt transparant of, en zo ja welke, platforms menselijke contentmoderatie
verminderen en welke middelen zij inzetten om te modereren. Op dit moment maakt niet
elke VLOP gebruik van menselijke moderatie. Het kabinet zal zich ervoor blijven inzetten
dat platforms hun verplichtingen nakomen, onder meer door samenwerking met Europese
partners te intensiveren en door in de nationale dialoog met de internetsector hiervoor
aandacht te vragen.
Vraag 5
Welke risico’s ziet u voor de Tweede Kamerverkiezingen van 29 oktober 2025 op het
gebied van politieke beïnvloeding via ongereguleerde donaties aan online contentmakers?
Antwoord 5
Het kabinet zet breed in om politieke beïnvloeding te voorkomen. Maatregelen betreffen
onder andere het organiseren van verkiezingstafels met relevante (veiligheids)partners,
het organiseren van een online veiligheidsbriefing voor gemeenteambtenaren, het bevorderen
van het (online) publieke debat en het versterken van de weerbaarheid van politieke
partijen. Ook gaat het kabinet desinformatie rond het verkiezingsproces tegen met
de Rijksbrede strategie voor de effectieve aanpak van desinformatie. We zijn ons bewust
van het risico dat buitenlandse actoren geld en tijd investeren om onze democratische
processen te beïnvloeden, bijvoorbeeld aan de hand van heimelijke desinformatiecampagnes.
Ondanks richtlijnen rondom de transparantie van politieke advertenties kan helaas
niet worden uitgesloten dat deze beïnvloedingscampagnes plaatsvinden. Het is daarom
van groot belang dat deze worden blootgelegd. De veiligheidsdiensten doen vanuit hun
wettelijke taak onderzoek naar heimelijke inmenging door buitenlandse actoren. Indien
inmenging wordt geconstateerd, kunnen zij dit melden aan relevante partners, via de
geëigende kanalen, zodat deze op basis van de melding hiernaar kunnen handelen.
Anderzijds is het van belang dat kiezers zelf weerbaar zijn zodat zij zich niet door
een enkele influencer laten beïnvloeden. Een goed geïnformeerde burger is niet alleen
veerkrachtiger, maar ook beter in staat om kritisch en verantwoord te handelen. Daarom
zet het kabinet via de Rijksbrede strategie voor de effectieve aanpak van desinformatie
ook in op de versterking van mediawijsheid en de weerbaarheid van burgers.3
Vraag 6
Vindt u dat donaties aan online contentmakers, die een politieke boodschap uitdragen,
beter gereguleerd moeten worden? Ziet u mogelijkheden om dit in de Wet op de politieke
partijen (Wpp) op te nemen?
Antwoord 6
Er zijn verschillende wetten en regels die zich richten op de monetisatie van online
content. Denk hierbij aan de Mediawet en reclameregels. Ook hebben platforms vaak
in hun eigen beleid restricties voor de monetisatie4 van content opgenomen.5 Het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties en het Ministerie van
Economische Zaken achten het daarom wenselijk om voor nu terughoudend te zijn met
het nemen van additionele maatregelen en vooral te bezien wat er mogelijk is binnen
de huidige wet- en regelgeving. De Wet op de politieke partijen is in ieder geval
niet de juiste plek om nadere regels te stellen. Deze wet omvat als normadressant
enkel politieke partijen, niet online contentmakers die een politieke boodschap uitdragen.
Vraag 7
Heeft u geanalyseerd welke risico’s er bestaan op online politieke beïnvloeding voor
de aanstaande Kamerverkiezingen? Zo ja, kunt u toelichten welke risico’s er zijn geconstateerd
en welke maatregelen u neemt om deze te mitigeren?
Antwoord 7
Het fundamentele karakter van verkiezingen zorgt ervoor dat verkiezingen doelwit kunnen
zijn van (statelijke) actoren die democratische processen in Europa en Nederland willen
beïnvloeden of verstoren. Hier zijn meerdere voorbeelden van, zoals de inmengingspogingen
in Roemenië, Moldavië, Polen en Duitsland. Daarom neemt het kabinet maatregelen om
deze risico’s tegen te gaan.
Er worden verschillende maatregelen getroffen om heimelijke beïnvloeding van verkiezingen
tegen te gaan. Hierover is uw Kamer op 4 juli jl. per brief geïnformeerd.6 De getroffen maatregelen zijn besproken met relevante partners, waaronder de inlichtingen-
en veiligheidsdiensten, op de verkiezingstafel. Deze tafel komt periodiek bijeen en
incidenteel in geval van concrete dreigingen. Ook heeft het Ministerie van Binnenlandse
Zaken en Koninkrijksrelaties een webinar georganiseerd voor gemeenteambtenaren om
hen voor te bereiden op veiligheidsrisico’s rondom de verkiezing. De Autoriteit Consument
en Markt (ACM) heeft een rondetafelgesprek georganiseerd over de verantwoordelijkheden
van online platforms onder de DSA tijdens verkiezingen. Daarnaast hebben het Ministerie
van Defensie en de Nationale Politie een hackathon georganiseerd waarbij op basis
van open source intelligence signalen van dreigingen voor de weerbaarheid van de aankomende
verkiezingsperiode worden onderzocht. Verder wordt actief samengewerkt in EU-verband.
Bijvoorbeeld via het European Cooperation Network on Elections and the Rapid Alert System (RAS) waar inzichten met betrekking tot desinformatie en weerbare verkiezingen worden
gedeeld tussen lidstaten. Tot slot werken we aan een offensieve aanpak tegen desinformatie
en de verkenning naar de mogelijkheden voor desinformatie detectie. In recente jaarverslagen
waarschuwt de AIVD voor heimelijke desinformatiecampagnes die het publieke debat in
Europese landen beïnvloeden.7 Het ontbreekt momenteel aan integraal zicht op de verspreiding van desinformatie-
en beïnvloedingscampagnes door statelijke actoren in het Nederlandse informatiedomein.
Om onze informatiepositie te verstevigen onderzoeken we de mogelijkheid om buitenlandse
beïnvloedingscampagnes, gericht op onze democratische rechtsstaat, te detecteren.
Daarvoor kijken we naar buitenlandse voorbeelden zoals Zweden en Frankrijk.
Overigens zijn ons kiesstelsel en verkiezingsproces robuust. Door ons pluralistische
stelsel van evenredige vertegenwoordiging zijn we minder kwetsbaar dan landen met
een meerderheidsstelsel zoals het «winner takes all»-stelsel waarbij slechts één partij
of kandidaat het voor het zeggen krijgt. Ook is het verkiezingsproces minder kwetsbaar
voor digitale dreigingen doordat de kiezer met een papieren stembiljet stemt, dat
handmatig wordt geteld.
Vraag 8
Hoe beoordeelt u de radicaliserende werking van online aanbevelingsalgoritmes gebaseerd
op online tracking en interactie? Ziet u een verband tussen de werking van deze algoritmes
en de toenemende groei van online extremisme die zowel de AIVD8 als NCTV9 constateren?
Antwoord 8
Radicalisering is een complex proces waarbij verschillende factoren een rol spelen.
Aanbevelingsalgoritmes hebben hierin een indirecte, maar wel een versterkende rol.
Het onderzoek in het genoemde artikel toont aan dat algoritmes content met veel aandacht
vaker aanbevelen. Ook blijkt emotionele en polariserende content aandacht te genereren.10 Hierdoor wordt een verband gesuggereerd tussen aanbevelingsalgoritmes en de verspreiding
van extreme content. Het WODC-onderzoek naar rechts-extremisme op sociale media bevestigt
dat aanbevelingsalgoritmes radicalisering kunnen versterken wanneer gebruikers zelf
al actief zoeken naar extremistische of polariserende content.11 Deze algoritmes zorgen voor steeds extremere aanbevelingen op basis van het eerdere
gedrag van de gebruiker. Tegelijkertijd zijn ook de persoonlijke keuzes van gebruikers
en offline factoren minstens zo belangrijk in het radicaliseringsproces. Denk hierbij
aan het delen van links naar extremistische content binnen de eigen sociale omgeving,
het abonneren op of volgen van bepaalde kanalen met extreme content op sociale mediaplatforms,
en het ontmoeten van gelijkgestemden binnen echokamers. Algoritmes zijn dus geen directe
oorzaak van radicalisering, maar kunnen wel bijdragen aan een versnelde toegang tot
extremistische content. Dit kan het proces van radicalisering versnellen of versterken,
vooral bij kwetsbare gebruikers. Daarnaast houdt een onderdeel van het verdienmodel
van online platforms, waaronder de reclamesystemen en aanbevelingssystemen die door
aanbieders van VLOPs worden gebruikt, de verspreiding van schadelijke en extremistische
content in stand.
De NCTV en AIVD besteden in de opeenvolgende Dreigingsbeelden Terrorisme Nederland
(DTN) en in het jaarverslag van de AIVD van 2024 aandacht aan de snelle online radicalisering
en mogelijke geweldsdreiging van met name jongeren in onder andere rechts-terroristische
online netwerken. De Minister van Justitie en Veiligheid vraagt daarom in de dialoog
met de internetsector expliciet aandacht voor de rol van aanbevelingsalgoritmes bij
de verspreiding van extreme online content.
Vraag 9
Ziet u een verband tussen de rellen in Den Haag van 20 september 2025, waar rechts-extremistisch
geweld is gepleegd, en de radicaliserende gevolgen van aanbevelingsalgoritmen op sociale
media?
Antwoord 9
De NCTV en AIVD waarschuwen al langere tijd voor de dreiging van rechts-extremisme
(en rechts-terrorisme) en dat normalisering van rechts-extremistisch gedachtengoed
kan leiden tot rechts-extremistisch gemotiveerd geweld. Zo werd in opeenvolgende Dreigingsbeelden
Terrorisme Nederland (DTN) en ook in het jaarverslag van de AIVD van 2024 aandacht
besteed aan de normalisering van rechts-extremistisch gedachtegoed en de verspreiding
hiervan online. De snelle online radicalisering en mogelijke geweldsdreiging van met
name jongeren in onder andere rechts-terroristische online netwerken is hier onderdeel
van. Normalisering van het rechts-extremistisch gedachtegoed kan leiden tot een toenemende
intolerantie jegens instituten en andere groepen in de samenleving, waardoor geweld
tegen deze groepen sneller wordt geaccepteerd. Om het gedachtegoed te normaliseren
spelen rechts-extremisten in op bestaande maatschappelijke onvrede. De gebeurtenissen
en zichtbare uitingen van zaterdag 20 september jl. zijn mogelijk een teken van normalisering
van rechts-extremistisch gedachtegoed in de samenleving. Daarbij is het een zorgelijke
ontwikkeling dat (al dan niet extremistische) groepen met verschillende achtergronden
zich vanuit een gedeelde onvrede kunnen verenigen en elkaar kunnen versterken in hun
(extremistische) denkbeelden en in het uiterste geval geweldsbereidheid tonen. Voor
de duiding van de NCTV van de gebeurtenissen van 20 september jl. verwijzen we naar
de recent verzonden Kamerbrief.12
Vraag 10
Deelt u de mening van de indieners dat online algoritmes die polarisatie, ophef, en
haat aanwakkeren, van sociale media een broedplaats maken voor rechts-extremistisch
gedachtegoed en daardoor kunnen leiden tot geweld?
Antwoord 10
Zoals aangegeven in het antwoord op vraag 8 en 9, is de rol van aanbevelingsalgoritmes
en sociale mediafuiken bij rechts-extremistische radicalisering binnen de online context
indirect, maar relevant. De NCTV en AIVD waarschuwen al langere tijd voor de dreiging
van rechts-extremisme (en rechts-terrorisme) en dat normalisering van rechts-extremistisch
gedachtegoed en de verspreiding hiervan online kan leiden tot rechts-extremistisch
gemotiveerd geweld. Daarom zal de aandacht voor de rol van deze algoritmes in het
bestrijden van extremisme onverminderd doorgezet worden.
Vraag 11
Acht u het met de indieners noodzakelijk om de radicaliserende werking van aanbevelingsalgoritmes
op sociale media scherper te reguleren?
Antwoord 11
Nee, het kabinet acht het op dit moment niet noodzakelijk om aanvullende regels te
stellen bovenop bestaande wetgeving, zoals de DSA. Zo verplicht de DSA online platforms
om transparant te zijn over de werking van hun aanbevelingsalgoritmes. VLOPs, waaronder
ook sociale mediaplatforms, moeten gebruikers daarnaast de optie bieden om aanbevelingsalgoritmes,
die gepersonaliseerde aanbevelingen doen, uit te schakelen. Zoals uitgelegd onder
vraag 3, verplicht de DSA daarnaast tot het identificeren, analyseren en beoordelen
van systemische risico's en zo nodig het maken van aanpassingen aan aanbevelingsalgoritmes.
Het kabinet is daarom van mening dat de prioriteit moet liggen bij de effectieve en
uniforme toepassing en handhaving van de DSA. In 2027 vindt de evaluatie van het effect
en doeltreffendheid van de DSA plaats. De regels omtrent aanbevelingssystemen kunnen
dan ook worden geëvalueerd en een verdere aanscherping kan worden overwogen. In dit
kader volgen wij met interesse recente relevante juridische ontwikkelingen, zoals
de uitspraak van de rechtbank Amsterdam over aanbevelingsalgoritmes van grote sociale-mediaplatforms.13
Binnen de kaders van bestaande wetgeving, zoals de DSA, zet Nederland zich in voor
een versterking van het beleid ten aanzien van online radicalisering, gewelddadig
extremisme en terrorisme. Nederland neemt daarbij een actieve rol binnen de Europese
Unie en roept, samen met Duitsland en Frankrijk, de Europese Commissie op om onder
meer gezamenlijk een vrijwillige gedragscode voor online platforms op te stellen met
betrekking tot deze problematiek. Deze gedragscode kan tevens maatregelen omvatten
met betrekking tot aanbevelingsalgoritmes.
Vraag 12
Bent u van mening dat bedrijven als X, Meta en TikTok genoeg doen om radicalisering
en extremisme op hun sociale media platforms aan te pakken?
Antwoord 12
Extremistische en terroristische groeperingen misbruiken online platformen, waaronder
sociale media platformen, om propaganda te verspreiden en in stand te houden, nieuwe
leden te rekruteren en zelfs aanslagen voor te bereiden. Het is daarom essentieel
om passende maatregelen te nemen om het online domein veiliger te maken, met inachtneming
van de waarden van een democratische rechtstaat. Hier zet het kabinet zich dan ook
voor in. Zo stelt huidige wettelijke instrumentarium, zoals de DSA en de Terroristische
Online Inhoud (TOI-)verordening, duidelijke grenzen aan de aanwezigheid van terroristische
en illegale content op onlineplatforms. Dit is een belangrijke stap in de goede richting
om platforms meer verantwoordelijkheid te laten nemen en zo bij te dragen aan een
veiligere online omgeving. Wij blijven daarom in dialoog met de internetsector. Hierbij
wordt steeds de eigen verantwoordelijkheid van online platforms benadrukt.
Vanuit het Ministerie van Justitie en Veiligheid is belangrijk onderdeel van de dialoog
het gezamenlijk verkennen van mogelijkheden om concrete instrumenten tegen online
radicalisering te ontwikkelen. Zo start in december 2025 de pilot met de ReDirect-methode,
in samenwerking met Meta, waarbij gebruikers die online zoeken naar terroristische
of extremistische content worden geconfronteerd met een informatieveld om hen door
te geleiden naar online hulp.
De Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM) detecteert
en beoordeelt online terroristisch materiaal volgens de TOI-verordening. Hostingaanbieders
moeten dit materiaal binnen een uur na een verwijderingsbevel van de ATKM verwijderen
of ontoegankelijk maken. Daarnaast moeten online platforms transparantieverslagen
publiceren over het aantal ontvangen verwijderbevelen en de opvolging daarvan. Bij
herhaalde overtredingen kan de toezichthouder een «blootstellingsbesluit» opleggen,
waarmee het platform verplicht wordt proactieve maatregelen te nemen om herhaling
te voorkomen.
Voor VLOPS, waaronder Meta en TikTok, is de Europese Commissie de aangewezen toezichthouder.
Sinds de inwerkingtreding van de DSA heeft de Commissie diverse formele onderzoeken
geopend naar de naleving door de zeer grote online platforms van de verplichtingen
onder de DSA. Deze onderzoeken zien, onder andere, op het ontwerp en werking van aanbevelingsalgoritmes,
de systeemrisico's en mitigerende maatregelen en transparantieverplichtingen rondom
content moderatie. Vooralsnog heeft de Commissie deze onderzoeken nog niet afgerond
of sancties opgelegd aan de platforms. In afwachting van deze uitspraken kunnen we
geen conclusies trekken over de eventuele schendingen van de verplichtingen onder
de DSA van specifieke platforms.
Vraag 13
Welke concrete maatregelen bepleit u in de aankomende Digital Fairness Act (DFA) van
de Europese Commissie die de risico’s op radicalisering via aanbevelingsalgoritmes
kan mitigeren?
Antwoord 13
Met de Digital Fairness Act (DFA) zal het Europese consumentenrecht worden aangepast.
Het consumentenrecht beschermt belangen van consumenten bij het aangaan van economische
transacties met handelaren. Het tegengaan van radicalisering is geen doel van het
consumentenrecht. Nederland zet zich in voor aanvullende maatregelen voor het tegengaan
van verslavend ontwerp, waaronder algoritmes, via de DFA. Tegelijkertijd moet onnodige
regeldruk voor ondernemers voorkomen worden. Dergelijke maatregelen zijn niet specifiek
gericht op het tegengaan van radicalisering, maar zouden indirect een effect kunnen
hebben. Zoals aangegeven in de beantwoording van vraag 3, worden aanbevelingsalgoritmes
op dit moment onder andere gereguleerd via de DSA en de TOI-verordening. Het kabinet
is daarom van mening dat de prioriteit moet liggen bij de effectieve en uniforme toepassing
en handhaving van deze wet- en regelgeving.
Vraag 14
Welke nationale maatregelen kunt u nemen om Nederlandse gebruikers van sociale media
te beschermen tegen de radicaliserende werking van online algoritmes?
Antwoord 14
Het tegengaan van online radicalisering is een gezamenlijke verantwoordelijkheid.
Online platforms hebben hierin een bijzondere rol, omdat zij als aanbieders en beheerders
van de digitale infrastructuur direct kunnen ingrijpen in de online dynamiek. Zij
zijn in eerste instantie aan zet om te zorgen dat hun gebruikers online veilig zijn.
De DSA legt zorgvuldigheidsverplichtingen op aan online platforms om bij te dragen
aan het creëren van een veilige online omgeving. We richten ons daarom op het effectief
implementeren van Europese regelgeving, zoals de DSA. Voor VLOPs, waaronder sociale
media, is de Europese Commissie de aangewezen toezichthouder. In Nederland is de ACM
bevoegd om toezicht te houden op naleving van de DSA door hier gevestigde tussenhandeldiensten,
zoals online platforms. Daarnaast zullen we ons in 2026 met nieuwe initiatieven inzetten
voor kennis en kunde van burgers in de online publieke ruimte. Bijvoorbeeld door het
vergroten van het bewustzijn bij burgers van hun rechten en handelingsopties onder
de DSA. Ook onderzoeken we de inzet van AI en nieuwe technologie om de negatieve effecten
tegen te gaan die algoritmes kunnen hebben op de zichtbaarheid en toegankelijkheid
van onafhankelijke en betrouwbare informatie op sociale media. En we zetten in op
ontwikkeling, gebruik en schaalvergroting van niet-winstgedreven alternatieven.
Vraag 15
Bent u bereid de mogelijkheden te onderzoeken of via het consumentenrecht een nationaal
verbod op radicaliserende aanbevelingsalgoritmes van grote online platforms gerealiseerd
kan worden?
Antwoord 15
Zoals aangegeven in het antwoord op vraag 13, is het consumentenrecht geen geschikte
plek om radicaliserende aanbevelingsalgoritmes direct te reguleren. Zoals aangegeven
in de beantwoording van vraag 11, worden aanbevelingsalgoritmes op dit moment onder
andere gereguleerd via de DSA en de TOI-verordening. Het kabinet is daarom van mening
dat de prioriteit moet liggen bij de effectieve en uniforme toepassing en handhaving
van deze wet- en regelgeving.
Vraag 16
Kunt u deze vragen afzonderlijk en minstens één week voor de Tweede Kamerverkiezingen
van 29 oktober 2025 beantwoorden?
Antwoord 16
Ja, deze vragen zijn afzonderlijke beantwoord. Het is helaas niet gelukt deze beantwoording
een week voor de Tweede Kamerverkiezing toe te sturen.
Ondertekenaars
-
Eerste ondertekenaar
E. van Marum, staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties -
Mede ondertekenaar
F. van Oosten, minister van Justitie en Veiligheid -
Mede ondertekenaar
V.P.G. Karremans, minister van Economische Zaken -
Mede ondertekenaar
F. Rijkaart, minister van Binnenlandse Zaken en Koninkrijksrelaties
Bijlagen
Gerelateerde documenten
Hier vindt u documenten die gerelateerd zijn aan bovenstaand Kamerstuk.