Verslag van een hoorzitting / rondetafelgesprek : Verslag van een hoorzitting, gehouden op 11 februari 2021, over de rol van socialmediaplatformen
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 823 VERSLAG VAN EEN HOORZITTING
            
Vastgesteld 9 maart 2022
De vaste commissie voor Digitale Zaken heeft op 11 februari 2022 gesprekken gevoerd
                  over de rol van socialmediaplatformen.
               
Van deze gesprekken brengt de commissie bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de commissie, Kamminga
De griffier van de commissie, Boeve
Voorzitter: Azarkan
Griffier: Boeve
Aanwezig zijn zes leden der Kamer, te weten: Azarkan, Ceder, Van Ginneken, Koekkoek,
                  Rajkowski en Van Weerdenburg,
               
alsmede de heer Haveman en de heer Pancini.
Aanvang 10.01 uur.
De voorzitter:
Ik heet u allen welkom bij deze hoorzitting van de vaste commissie voor Digitale Zaken
                     over de rol van socialmediaplatformen. Deze hoorzitting bestaat uit twee delen van
                     ieder 45 minuten. De centrale vraag luidt als volgt: welke rol speelt de werking van
                     socialmediaplatformen bij maatschappelijke onrust, polarisatie, radicalisering, ontwrichting
                     en andere onwenselijke impact op democratie en rechtsstaat?
                  
Van de Kamer zijn aanwezig: mevrouw Van Ginniken namens D66, mevrouw Van Weerdenburg
                     namens de PVV, mevrouw Rajkowski namens de VVD en mevrouw Koekkoek namens de Partij
                     voor de Dieren...
                  
Mevrouw Koekkoek (Volt):
Volt!
De voorzitter:
Sorry, namens Volt. Neem me niet kwalijk. Het zat heel dicht bij elkaar.
Ik verwacht nog een of twee collega's. Welkom ook aan de mensen die deze hoorzitting
                     op afstand volgen. In het bijzonder heet ik welkom de heer Haveman. Hij gaat in het
                     eerste blok met ons in gesprek namens Facebook, of de andere naam waaronder het bekend
                     is, namelijk Meta, maar dat is volgens de mensen thuis denk ik nog niet helemaal duidelijk.
                     Meneer Haveman is daar Head of Public Policy Nederland, België en Luxemburg.
                  
Blok 1
Gesprek met:
– Edo Haveman, Meta
De voorzitter:
Welkom, meneer Haveman. U krijgt eerst de gelegenheid voor een kort openingsstatement
                     van maximaal vijf minuten. Vervolgens zullen we starten met de inbreng van een aantal
                     leden van de gezamenlijke voorbereidingsgroep. Daarna gaan we in op de vragen van
                     individuele leden. Ik geef graag het woord aan u, meneer Haveman.
                  
De heer Haveman:
Dank u wel.
Voorzitter, geachte Kamercommissie. Allereerst hartelijk dank voor de uitnodiging
                     om hier te mogen spreken. Ik ben Edo Haveman, Hoofd Public Policy bij Meta voor de
                     Benelux. Ik ben in die rol verantwoordelijk voor publiek beleid in Nederland, België
                     en Luxemburg. Ik ga over de contacten over onze beleidskeuzes met politici, toezichthouders
                     en beleidsmakers, en de lokale invulling van hoe wij onze verantwoordelijkheid nemen
                     als bedrijf. Ik begin mijn introductie met enkele opmerkingen over het belang van
                     veiligheid voor mijn bedrijf. Daarna zal ik in iets meer detail uitleggen wat onze
                     benadering is op het gebied van veiligheid. Tot slot wil ik ingaan op de werking van
                     ons rankingalgoritme.
                  
Veiligheid en welzijn vormen de basis van ons bedrijf en liggen aan de grondslag van
                     ons businessmodel. Als mensen zich niet veilig voelen, zullen ze ons platform niet
                     gebruiken en niet terugkomen. Adverteerders willen niet dat hun merken en producten
                     worden weergegeven naast extreme en hatelijke inhoud. Daar zijn ze altijd heel duidelijk
                     over geweest. Met andere woorden, ons businessmodel is volledig in lijn met het nastreven
                     van een prettig en veilig platform. We hebben bij Meta dan ook vele duizenden mensen
                     werken aan veiligheid en beveiliging. We hebben daarin sinds 2016 13 miljard dollar
                     geïnvesteerd. In 2021 gaat het alleen al om 5 miljard dollar. Laat me kort een toelichting
                     geven op onze aanpak wat betreft veiligheid. Onze aanpak kent vijf pilaren: beleid,
                     tools, materialen, samenwerkingen en feedback.
                  
Allereerst beleid. We hebben beleid, bijvoorbeeld onze richtlijnen voor de community,
                     onze huisregels, waarin we proberen een evenwicht te vinden tussen de volgende waarden:
                     mensen een stem geven, authenticiteit, waardigheid, privacy en veiligheid. In deze
                     richtlijnen staat exact beschreven wat wel en niet toegestaan is op Facebook. Het
                     doel is dat mensen zich veilig voelen om te delen wat voor hen belangrijk is met familie
                     en vrienden. Op basis van dit beleid verbieden we aanzetten tot haat of geweld, gevaarlijke
                     organisaties en ook fraude, naakt of pesten.
                  
Dan de tweede pilaar, tools. We hebben tools waarmee we ons beleid kunnen handhaven.
                     Mensen kunnen berichten of reacties melden die mogelijk onze regels schenden, zodat
                     we ernaar kunnen kijken. We gebruiken ook slimme technologie, kunstmatige intelligentie,
                     om inhoud die mogelijk in strijd is met onze regels, te vinden nog voordat deze aan
                     ons wordt gemeld. In ons transparantierapport maken we elk kwartaal bekend hoe goed
                     dit gaat. Daarin staan het aantal berichten per categorie waarop actie is ondernomen,
                     het percentage van de inhoud waarop actie is ondernomen dat we proactief hebben gevonden,
                     het aantal bezwaarschriften, het aantal herstelde berichten en de prevalentie van
                     specifieke inhoud, dus hoeveel inbreuk makende inhoud daadwerkelijk wordt gezien door
                     gebruikers op ons platform. Onze tools werken, want het merendeel van de verwijderde
                     inhoud wordt opgespoord door deze slimme systemen. De prevalentie daalt gestaag.
                  
Dan de derde pilaar, materialen. Op ons platform, in ons Helpcentrum en Veiligheidscentrum,
                     bieden we materialen om mensen te helpen begrijpen hoe onze tools werken en om hen
                     te helpen met specifieke problemen.
                  
Vier: samenwerkingen. We hebben samenwerkingsverbanden in veel landen, waaronder Nederland.
                     In Nederland werken we met veiligheidsorganisaties als het EOKM, safetyNed en 113
                     Zelfmoordpreventie. We werken ook met Nederlandse factcheckers in dienst van AFP en
                     DPA. We werken met toezichthouders, zoals de AFM, de NVWA en de Ksa, en overheidsorganisaties,
                     zoals het Ministerie van Binnenlandse Zaken, bijvoorbeeld rondom de verkiezingen,
                     de politie en inlichtingendienst AIVD.
                  
Dan de vijfde pilaar, feedback. Via de genoemde organisaties, maar ook van academici,
                     experts, mensen op ons platform en politici krijgen we voortdurend feedback om onze
                     tools, systemen en diensten altijd te kunnen blijven verbeteren.
                  
Deze aanpak onderstreept eigenlijk al waar ik mijn toelichting mee begon: veiligheid
                     en welzijn vormen de kern van ons bedrijf en liggen ten grondslag aan het businessmodel.
                     Dit werk stopt nooit en we zullen daarin blijven investeren, ook dit jaar weer.
                  
Ik denk dat het nuttig is om even wat tijd te besteden aan ranking en hoe ons rankingalgoritme
                     werkt, zodat dit helder is voordat we aan de vragen beginnen. De belangrijkste manier
                     waarop mensen Facebook ervaren, is via hun nieuwsfeeds. Gemiddeld hebben mensen op
                     elk willekeurig moment een paar duizend berichten beschikbaar in hun nieuwsoverzicht.
                     Dat zijn de updates van hun vrienden, van de pagina's die ze volgen et cetera. Maar
                     ze besteden slechts tijd aan het bekijken van zo'n 300 berichten. Het gepersonaliseerde
                     proces dat we gebruiken om van de duizenden berichten te komen naar de berichten die
                     je in je feed ziet, wordt «rangschikking» genoemd. Dat rangschikkend proces is ontworpen
                     om het kerndoel van de nieuwsfeed te bereiken, namelijk mensen helpen berichten te
                     vinden die het meest waardevol voor hen zijn. In lijn met wat ik eerder al stelde,
                     zijn we er niet bij gebaat om mensen verontrustende inhoud te laten zien. Als mensen
                     zich niet veilig voelen, zullen ze in de toekomst minder snel terugkeren en schieten
                     we uiteindelijk onszelf in de voet.
                  
Nog even de werking van nieuwsfeeds in detail. Er zijn vier componenten die belangrijk
                     zijn voor de volgorde waarin je berichten te zien krijgt: inventaris, signalen, voorspellingen,
                     score. Allereerst inventaris. Dat zijn eigenlijk alle potentiële berichten die je
                     nog niet hebt gezien van vrienden, groepen en pagina's die je volgt. Dan signalen,
                     voorspellingen en score. We hebben tienduizenden gepersonaliseerde signalen over de
                     waarde van deze berichten en tientallen voorspellingen om de waarschijnlijkheid van
                     een interactie te bepalen. Die samen leveren een score op voor elk bericht, elke keer
                     dat je Facebook opent. Vervolgens maken we daar een eindscore van. Aanwijzingen dat
                     inhoud op de een of andere manier problematisch zou kunnen zijn, leiden weer tot aftrek
                     van de beginscore. Zodra deze integriteitsgerelateerde problemen zijn meegenomen,
                     krijgt elk bericht een eindscore, elke keer dat je Facebook opent. Die eindscore bepaalt
                     de volgorde van de berichten, want die worden op basis van de score op een logische
                     volgorde gezet. Elke persoonlijke feed is daarmee uniek en voor iedereen anders. We
                     werken voortdurend op basis van feedback om die rankingmechanismen te verbeteren.
                     We gebruiken daarvoor input van externe experts, maar natuurlijk ook van de mensen
                     die Facebook zelf gebruiken. Daarbij kunnen mensen er ook zelf voor kiezen om alsnog
                     de feed chronologisch weer te geven.
                  
Over deze aftrekmechanismen willen we open en transparant zijn. In onze communityrichtlijnen
                     leggen wij uit wat we verwijderen, en bij het type inhoud dat we degraderen, leggen
                     we uit welke zaken aftrek krijgen en daarom dus minder zichtbaar zijn op Facebook.
                     Dat kan zijn omdat het problematisch is of anderszins van lage kwaliteit. Voorbeelden
                     zijn clickbaitlinks, sensationele gezondheidsinhoud, commerciële gezondheidsberichten,
                     nieuwsartikelen zonder transparant auteurschap, websites die in hun verkeer te afhankelijk
                     zijn van Facebook, misinformatie en inhoud geplaatst door herhaaldelijke overtreders
                     van ons beleid. Dit soort berichten zouden hogere scores kunnen krijgen dan wenselijk,
                     maar krijgen dus aftrek om ervoor te zorgen dat mensen op ons platform waardevolle
                     berichten te zien krijgen. Dus ook in onze ranking staan veiligheid en welzijn centraal.
                  
Resumerend. Veiligheid en het bieden van een prettig platform zijn goed voor onze
                     business en past binnen onze missie. Als mensen zich niet veilig voelen, zullen ze
                     ons platform niet gebruiken. Adverteerders willen hun advertenties niet naast kwalijke
                     berichten hebben staan. Ik hoop dat ik duidelijk heb kunnen maken dat veiligheid ten
                     grondslag ligt aan dit alles.
                  
Hartelijk dank en ik beantwoord graag uw vragen!
De voorzitter:
Dank, meneer Haveman, voor uw inleiding. Ik ga graag naar de Kamerleden voor hun vragen
                     en geef als eerste het woord aan mevrouw Van Ginneken namens de voorbereidingsgroep.
                  
Mevrouw Van Ginneken (D66):
Dank, voorzitter. Dank aan de heer Haveman voor het feit dat hij hier vandaag gekomen
                     is. Ik ben heel blij dat we deze bijeenkomst houden. Zoals bekend maak ik me al tijden
                     zorgen over de impact van socialmediabedrijven. Sinds de Facebookfiles van Haugen
                     is dat er niet beter op geworden. Ik denk ook dat we daar met elkaar even goed naar
                     moeten kijken vandaag. Hoe werkt Facebook polarisatie eventueel in de hand en wat
                     doet Facebook eraan om dat weer te beperken?
                  
Even over de voorbereidingsgroep. We willen in duo's een aantal onderwerpen behandelen,
                     waarover we vragen hebben voorbereid. Het eerste duo is collega Van Weerdenburg en
                     ik. Wij willen vooral stilstaan bij wat nou die impact op de samenleving is en wat
                     uw beeld daarvan is.
                  
Mevrouw Van Weerdenburg (PVV):
Meneer Haveman, er is natuurlijk best wel een golf van verontwaardiging ontstaan in
                     de samenleving: uw platform zou onrust en polarisatie in de maatschappij aanwakkeren.
                     Wij proberen hier dus uit te vinden of dat inderdaad zo is en of u inderdaad – zoals
                     Facebookklokkenluider, mevrouw Haugen, die we gisteren gesproken hebben, zegt – extreme
                     uitingen en extreme meningen een megafoon in handen geeft. De vraag is dus: klopt
                     dat? Of is uw platform slechts een weerspiegeling van de samenleving? De wetenschappers
                     die we gister aan tafel hadden, hebben gezegd: er is weinig tot geen wetenschappelijk
                     bewijs dat er een causaliteit is tussen sociale media en polarisatie in de samenleving,
                     maar dat komt ook omdat we eigenlijk geen goeie data hebben om te onderzoeken. Dat
                     is ook wat mevrouw Haugen ons meegaf: geef maar eens aan waarom jullie niet meer data
                     beschikbaar kunnen stellen, zodat we inderdaad kunnen zien dat waar we wellicht bang
                     voor zijn, er helemaal niet is.
                  
De voorzitter:
Meneer Haveman, uw reactie.
De heer Haveman:
Dank voor deze vragen; ik denk dat een meervoud wel op z'n plek is. Ik probeer alle
                     losse elementen een plek te geven in mijn antwoord, maar laat het me vooral weten
                     als ik onverhoopt een element vergeet in mijn beantwoording. Ik denk dat ik in mijn
                     introductie genoeg heb stilgestaan bij het belang van waardevolle, positieve content
                     voor ons platform. Ik heb geprobeerd duidelijk te maken dat er geen belang is voor
                     ons om mensen heftige of extreme content voor te schotelen, omdat dit mensen enkel
                     afschrikt en in ieder geval op de langere termijn zorgt dat mensen niet meer terugkomen.
                     Als mensen boos, opgewonden of verdrietig worden, is dat een negatieve ervaring. Negatieve
                     ervaringen leiden ertoe dat mensen niet terugkomen naar onze platformen en dat we
                     helemaal geen business hebben. Datzelfde geldt voor de andere kant, als je vanuit
                     het commerciële model, het businessmodel redeneert. Ik spreek regelmatig met grote
                     adverteerders in Nederland. Zij geven dezelfde signalen. Zij doen dat ook regelmatig
                     publiek. Zij willen niet dat hun merken, hun advertenties naast kwalijke, kwetsende,
                     haatdragende of opruiende inhoud komen. Daar hebben ze groot gelijk in.
                  
Dan een paar stapjes naar achter als het gaat om polarisatie. Ik denk dat we allemaal
                     zien dat de maatschappij verdeeld is. Dat geldt in sommige landen misschien nog wel
                     meer dan in Nederland. Er is sprake van verdeeldheid. Dat vindt logischerwijs ook
                     zijn weerspiegeling in het online discours. Wij zijn deel van de onlinewereld. De
                     gesprekken die op onze platformen plaatsvinden, zijn veelal positief en prettig. Mensen
                     delen positief nieuws met elkaar of vinden elkaar rond gemeenschappelijke zaken, uiteenlopend
                     van tuinieren en hardlopen tot bakken en recente babyfoto's. Maar ja, daar vinden
                     ook onprettige gesprekken plaats. Dat is niet meer dan logisch, maar het betekent
                     wel dat wij een heel grote verantwoordelijkheid hebben om daar streng tegen op te
                     treden. Daarom hebben we richtlijnen voor de community, onze community standards,
                     die een grens trekken tussen wat wel en niet is toegestaan. Expliciet oproepen tot
                     haat, discriminatie, pesten en misinformatie delen die tot geweld zou kunnen leiden,
                     zijn verboden. Op het moment dat wij die zaken op het spoor komen, dan wel doordat
                     mensen die aan ons rapporteren, dan wel doordat we ze zelf vinden door slimme technologie,
                     zullen we die neerhalen. Wij remmen ook content af op het moment dat die een negatieve
                     invloed op de ervaring, en daarmee dus ook op de maatschappij, zou kunnen hebben.
                     Dat doen wij ook omdat het in ons belang is.
                  
Zal ik doorgaan over data delen? Want ik zie dat mevrouw Van Ginneken misschien een
                     vraag wil stellen.
                  
Mevrouw Van Ginneken (D66):
Dat heeft u goed gezien. In de introductie heb ik het net niet zo expliciet aangestipt,
                     maar we hadden met elkaar afgesproken dat wij als vragenstellers eventueel zouden
                     interrumperen, om een beetje vaart en verdieping in het gesprek te kunnen krijgen.
                     U heeft goed gezien dat ik dat van plan was te doen.
                  
De heer Haveman:
Ik ben hier ook om uw vragen te beantwoorden.
Mevrouw Van Ginneken (D66):
Jazeker, en daar ben ik heel blij mee. U schetst dat u een platform wil dat iedereen
                     een prettige ervaring biedt. Maar tegelijkertijd waarschuwen de AIVD en de NCTV voor
                     de radicalisering van jongeren op socialmediaplatforms, ook uw platform. We weten
                     uit publicaties in The Wall Street Journal dat meer dan 60% van de mensen die lid
                     worden van een extremistische groep op Facebook, dat doen nadat zij daartoe een aanbeveling
                     hebben gekregen van jullie rankingalgoritme. Er komt daarom een vraag bij me op. U
                     beschrijft allerlei maatregelen die u neemt om effecten te dempen, maar tegelijkertijd
                     zien we dat de kern van het platform die negatieve effecten juist heel erg in de hand
                     werkt. Frances Haugen schetst daar heel veel voorbeelden van in de Facebook Files
                     die ze bekend heeft gemaakt. Voor mij voelt dit dus een beetje dubbel. Mijn vraag
                     is: erkent Facebook de rol die het heeft in het versterken van radicalisering en polarisatie,
                     of niet?
                  
De heer Haveman:
Nee, ik herken niet het soms geschetste beeld dat sociale media als die van Meta een
                     versterkend effect zouden hebben op radicalisering. Er zijn net een aantal dingen
                     gewisseld over de samenhang tussen polarisatie en sociale media. Er werd ook verwezen
                     naar een aantal quotes van gisteren. Ik zou het nog wat sterker willen aanzetten:
                     het verband dat wordt gesuggereerd dat sociale media leiden tot polarisatie – ik heb
                     het mevrouw Van Ginneken een aantal keer horen zeggen – is niet wat de wetenschap
                     zegt. Ik heb daar ook nog wat zaken op nageplozen. Ik zag ook de positionpaper van
                     Rathenau, waarin ook weer wordt verwezen naar wetenschappelijke bronnen die dit verband
                     niet zien. Ik denk dat er allerlei voorbeelden zijn van landen waar de polarisatie
                     allang toenam voor er sociale media waren, laat staan Facebook, en dat er ook heel
                     veel landen zijn waar Facebook enorm groeit, maar de polarisatie het afgelopen decennium
                     aan het afnemen is geweest. Ik vind het dus moeilijk dat daar zo'n duidelijk verband
                     tussen wordt gelegd. Er is heel veel wetenschappelijk onderzoek gedaan, ook vanuit
                     Nederland. Ik kwam een tijdje terug ook nog een artikel tegen van een Zweedse dame,
                     Maria Nordbrandt. Zij heeft ook op basis van Nederlandse data onderzoek gedaan en
                     vond juist een soort van omgekeerd verband: toegenomen polarisatie leidt tot meer
                     socialemediagebruik. Het is dus belangrijk om echt wel te bekijken wat het onderzoek
                     zegt en wat de effecten zijn.
                  
Mevrouw Van Weerdenburg (PVV):
Het klopt wat de heer Haveman zegt. Aan de andere kant: de onderzoekers van het Rathenau
                     constateren tegelijkertijd dat er ook gewoon heel erg weinig data is om te onderzoeken
                     of die causaliteit er is. Kan het zijn dat die door de wetenschap tot nu toe niet
                     of amper gevonden is omdat er gewoon te weinig data is, en zou Meta niet meer data
                     kunnen verstrekken?
                  
De heer Haveman:
Dat zijn twee losse vragen. Ik denk dat het aan de wetenschappers is om te concluderen
                     of het logisch is dat die data er niet zijn en of die verbanden daarmee niet te beoordelen
                     zijn. Ik kan me voorstellen dat het voor dat soort macroprocessen niet per se nodig
                     is, maar goed, ik ben geen wetenschapper. Dat laat ik dus aan het Rathenau. Dan datadelen.
                     De interactie met de wetenschap is heel belangrijk. Wij proberen heel transparant
                     te zijn in de dingen die wij doen op ons platform, bijvoorbeeld door mensen mee te
                     nemen in wat ons rankingalgoritme doet en door te laten zien waarom ze bepaalde content
                     op bepaalde momenten zien. Je kunt op Facebook bij elk bericht klikken op «waarom
                     zie ik dit bericht?» Dan krijg je iets van duiding over waarom je dat nu daar ziet.
                     Daarnaast hebben wij elk kwartaal een rapportage ...
                  
Mevrouw Van Ginneken (D66):
Mag ik u heel even onderbreken, meneer Haveman?
De heer Haveman:
Natuurlijk.
Mevrouw Van Ginneken (D66):
U schetst allerlei maatregelen die u neemt om effecten te beperken, maar ik ben toch
                     nog een beetje blijven hangen bij de onthutsende conclusie dat u denkt dat uw platform
                     geen actieve rol speelt in radicalisering of polarisatie. Nogmaals, als 60% van de
                     mensen die lid worden van een extremistische Facebookgroep dat doet na een actieve
                     aanbeveling van het platform zelf, dan is dat toch een niet te ontkennen effect? 80%
                     van de desinformatie die rondzwerft op het platform, komt vanwege het rankingalgoritme
                     dat u net beschreef, terecht bij de 4% van de mensen die daar het meest kwetsbaar
                     voor is. Dat is een groep die ook het meest geneigd is om tot acties in de fysieke
                     ruimte over te gaan. U kunt dan toch niet ontkennen dat u, naast alles wat u probeert
                     om het te beperken, ook een negatieve impact heeft op het gebied van polarisatie in
                     onze samenleving?
                  
De heer Haveman:
Ik ken de cijfers niet die mevrouw Van Ginneken aanhaalt, dus ik kan niet gelijk zeggen
                     of het 5%, 10% of 3% moet zijn en of het lager of hoger is. Ik ben wel bekend met
                     de maatregelen die wij nemen. Ik vertaal het even naar de Nederlandse situatie. Nederland
                     heeft een turbulent jaar gehad. Een van de dingen die ik mij vanuit mijn rol bij Meta
                     goed herinner, waren de avondklokrellen van begin vorig jaar, of hoe je ze ook zou
                     willen noemen. Dat was een moment waarop wij vanuit Meta heel waakzaam waren over
                     wat er op ons platform plaatsvindt. Wij wilden en willen daar namelijk geen negatieve
                     rol in spelen. Dan zijn we waakzaam en proberen we met de relevante teams alert te
                     zijn ... Is het goed dat ik even mijn zin afmaak?
                  
De voorzitter:
Als u uw laatste zin echt even afmaakt, maar probeer ...
De heer Haveman:
Toen heb ik ook zelf een aantal berichten gezien waarin een aantal van de oproerkaaiers
                     zelf zei: «Jongens, we moeten niet op Facebook zitten, want hier worden we continu
                     afgegooid. Kom mee naar deze Telegramgroep, want daar kunnen we wel open en bloot
                     communiceren.» Ik denk dus dat we wel onderscheid moeten maken tussen verschillende
                     soorten sociale media. In ieder geval probeert ons platform een vijandige omgeving
                     te creëren voor oproer en polarisatie, omdat we dat op ons platform gewoon niet willen
                     hebben.
                  
Mevrouw Van Ginneken (D66):
Het valt me heel erg op dat u zegt: we hebben rondom rellen in Nederland de boel een
                     beetje in de gaten gehouden om te kijken of het niet uit de hand zou lopen. U heeft
                     dat ook eerder gedaan rondom de bestorming van het Capitool in Amerika. Daar heeft
                     u de zogenoemde breakglassfunctie gebruikt, zoals die in de wetenschap heet. Als de
                     polarisatie en de snelheid waarmee extreme content gedeeld wordt te gortig worden,
                     heeft u kennelijk een rem, een knop waaraan u kunt draaien: doe het allemaal maar
                     een tandje minder want anders gaat het uit de hand lopen. Dat vind ik een heel ongemakkelijk
                     idee. Ik probeer me voor te stellen welke vergadering er dan plaatsvindt bij Facebook
                     waarin mensen met elkaar uitwisselen dat er zo veel maatschappelijke onrust is dat
                     er aan de knop gedraaid moet worden, omdat het bepaalde effecten heeft op het gebruik
                     van de platformen en het verdienmodel. Waarom staat die knop niet altijd op het maximaal
                     dempen van polarisatie?
                  
De heer Haveman:
Ik kan niet helemaal mee in het beeld dat mevrouw Van Ginneken nu schetst. Wij proberen
                     altijd een veilig platform te zijn en altijd zaken als polarisatie tegen te gaan.
                     Tegelijkertijd zien we dat er in de maatschappij processen gaande zijn. Ik denk dat
                     het voorbeeld dat ik uit Nederland aanhaalde, een proces is dat autonoom verloopt.
                     Wij kijken of we als platform daar een verantwoorde rol in spelen. Wij doen wat we
                     kunnen om het tegen te gaan, en dat doen wij vervolgens.
                  
De voorzitter:
Ik denk dat we overgaan naar het volgende blokje. Mevrouw Rajkowski.
Mevrouw Rajkowski (VVD):
Dank, voorzitter. Ik wil specifiek doorgaan op Facebookgroepen. Facebookgroepen worden
                     steeds populairder. Er zitten heel veel mensen in. Ze hebben ook zeker heel veel voordelen.
                     Dat wil ik nog even hier gezegd hebben. Lotgenoten kunnen elkaar vinden en in gesprek
                     gaan over allerlei onderwerpen. Maar we zien ook de negatieve kanten ervan. Er kunnen
                     heel veel mensen in één groep zitten. Zo'n groep kan functioneren als een soort echokamer,
                     waardoor iedereen die erin zit denkt: wat ik vind, vindt eigenlijk iedereen en hier
                     moeten we toch echt wat tegen gaan doen. Ik heb als gemeenteraadslid in Utrecht gezien
                     hoe snel het kan gaan als sociale media gebruikt worden, niet alleen Facebook maar
                     ook andere platformen, om bijvoorbeeld rellen te organiseren. Zo is Kanaleneiland
                     in Utrecht op een gegeven moment door 300 jongeren op z'n kop gezet – vooral door
                     jongeren van buiten Utrecht, wil ik er nog even bij gezegd hebben. Daar zit onze zorg:
                     wat doen dit soort Facebookgroepen en wat betekent dat voor de onrust op straat? Experts
                     en deskundigen zeggen ook dat groepsberichten geprioriteerd worden in een Facebooktijdlijn
                     ten opzichte van berichten van buiten de groep. Je kan tot 2.200 mensen per dag uitnodigen
                     in zo'n groep, dus je hebt zo een bereik van een half miljoen mensen. Stel dat ik
                     ben aangesteld om een Russische desinformatiecampagne op te zetten, dat ik daarvoor
                     een team heb en dat ik snel succesvol wil zijn. Klopt het dan dat het voor mij slimmer
                     zou zijn om een Facebookgroep aan te maken en daar mijn desinformatie in te verspreiden,
                     dan dat ik een-op-een berichten naar allemaal mensen ga versturen.
                  
De heer Haveman:
Even denken. Het is een als-dansituatie. Ik denk dat je theoretisch gezien sneller
                     berichten verspreidt in een groep dan een-op-een. Maar ook als je tien mensen tegelijk
                     aanspreekt, gaat dat sneller dan wanneer je één mens tegelijk persoonlijk aanspreekt.
                     Dat betekent dus ook dat wij een grotere verantwoordelijkheid hebben. Specifiek als
                     het bijvoorbeeld gaat om buitenlandse inmenging zijn we heel strikt. We hebben daar
                     aanvullende maatregelen en aanvullende teams voor, die specifiek boven op wat wij
                     coordinated inauthentic behavior noemen, zitten. Tegen dat gecoördineerde inauthentieke
                     gedrag hebben wij tools en teams gemaakt, die kunnen zien of dat plaatsvindt. Het
                     gaat daarbij om derden uit een ander land, dan wel hetzelfde land, die zich voordoen
                     als specifieke groepen en die informatie verspreiden, die mogelijk zelfs correct is
                     maar in ieder geval opruiend zou kunnen zijn. Daarop kunnen wij dan ingrijpen. Dat
                     zijn zaken die gebeuren. Wij proberen daar ook publiek over te rapporten. Dat doen
                     wij elke maand in ons Coordinated Inauthentic Behavior Report. Elke maand publiceren
                     we daarin welke varianten van buitenlandse inmenging wij neerhalen.
                  
Mevrouw Rajkowski (VVD):
Dank, meneer Haveman. Ik weet dat, want ik heb veel van jullie rapporten gezien en
                     jullie communiceren daar veel over. Mijn vraag ging over de prioritering. Klopt het
                     dat berichten uit groepen voorrang krijgen in de rangorde in een tijdlijn? Speelt
                     die prioritering er dus een rol in? Ik heb van experts en deskundigen begrepen dat
                     60% van de berichten die wij in onze Facebooktijdlijn zien, uit groepen afkomstig
                     is, vanwege onder andere de prioritering.
                  
De voorzitter:
Meneer Haveman, klopt dat?
De heer Haveman:
Nu snap ik uw vraag beter, dank u wel. Dat is natuurlijk persoonlijk. Iedereen heeft
                     een gepersonaliseerde nieuwsfeed. Als jij besluit om een bepaalde groep te volgen,
                     dan krijg je berichten van die groep te zien. Als je veel met die groep interacteert,
                     dan neemt de waarschijnlijkheid toe, denk ik, dat berichten van die groep hoger in
                     jouw tijdlijnen komen. Als je veel interacteert met familie of vrienden, zullen die
                     berichten ook hoger in jouw tijdlijnen komen. Maar goed, dat zijn allemaal losse elementen
                     die bijdragen aan die waarschijnlijkheid. Ik kan dus niet zeggen: het is voor altijd
                     en voor iedereen zo. Dat is natuurlijk het hele punt van personalisatie.
                  
Wat ik ook belangrijk vind om te noemen, is dat we bijvoorbeeld ook de aftrekmechanismen
                     hebben. Op het moment dat content wordt gedeeld die niet voldoet aan onze richtlijnen
                     of een optelling is van onze degradatierichtlijnen, dan komt die alsnog weer lager
                     te staan. Als een groep bijvoorbeeld meerdere keren misinformatie plaatst of informatie
                     plaatst die door onze factchecker is geclassificeerd als misinformatie, dan zal die
                     groep blijvend aftrek krijgen. Er zijn dus mechanismen waardoor je inderdaad van groepen
                     meer ziet, maar er zijn ook mechanismen waardoor je van groepen minder ziet.
                  
Mevrouw Van Ginneken (D66):
Meneer Haveman, mag ik u heel even onderbreken, want het gebeurt me weer dat mij dat
                     triggert. U spreekt over «aftrek». U noemde dat ook in uw introductie. Maar we weten
                     ook dat naast die aftrek, een reactie op een post in de vorm van een duimpje omhoog
                     vijf keer minder snel verspreid wordt dan een boze reactie op een post, dus een reactie
                     met een roodgloeiend emoticon. Frances Haugen heeft dat hier gisteren nog nadrukkelijk
                     uitgesproken, maar we hadden het al kunnen lezen in de Facebook Files die in oktober
                     openbaar werden gemaakt. Dat vind ik bijna schizofreen aan het verhaal dat ik hier
                     steeds hoor. In de kern werkt het platform polarisatie in de hand, maar daarnaast
                     heeft u allerlei maatregelen, die u ook uitgebreid wil beschrijven, die dat effect
                     moeten dempen. Dat voelt voor mij alsof u zegt «o, ik heb hier een doosje pleisters»,
                     terwijl wij denken «er is een slagaderlijke bloeding». Die passen niet op elkaar.
                     Gisteren hebben wij het ook aan de experts gevraagd: kan de kern van zo'n platform,
                     kan de kern van een Facebookplatform, niet fundamenteel anders ingericht worden zodat
                     het neutraal is en niet alleen de extreme content voorrang geeft, terwijl we dan toch
                     nog een gezellig socialmediaplatform hebben? Het antwoord was: ja. Frances Haugen
                     heeft een aantal concrete, specifieke technieken genoemd waar jullie voor hadden kunnen
                     kiezen. Jullie weten al jaren dat de keuzes die jullie gemaakt hebben in de techniek
                     en het verdienmodel, deze negatieve effecten in de samenleving in de hand werken.
                     En wij weten het, dankzij Frances Haugen, sinds oktober ook. De essentiële vraag die
                     wat mij betreft hier vandaag op tafel ligt, is: waarom kiest Facebook ervoor om dat
                     verdienmodel en de werking van het platform overeind te houden, wetende dat Facebook
                     deze negatieve effecten in de samenleving kan wegnemen door andere technische en commerciële
                     keuzes te maken?
                  
De voorzitter:
Meneer Haveman, dat was een lange inleiding, met een goed antwoord van u?
De heer Haveman:
Nou ja, ik ga niet mee in die karakterschets. Ik ga niet mee in de suggestie dat de
                     mechanismen bij ons zo werken dat ze die effecten hebben. Wij zijn continu bezig om
                     algoritmen en andere mechanismes zo in te richten dat mensen een positieve, waardevolle
                     ervaring hebben. En dat moeten we wel doen, want anders zouden we binnen no time out
                     of business zijn. Dan zouden we niet meer bestaan als bedrijf. Ik snap dat u specifieke
                     zorgen heeft, maar de karakterschets dat de mechanismen helemaal verkeerd zouden staan,
                     herken ik niet.
                  
Mevrouw Van Ginneken (D66):
Zegt u dan dat mevrouw Haugen fout zit? Zegt u dat zij liegt?
De heer Haveman:
Ik heb niet de specifieke quote voor ogen waar u naar verwijst. Ik denk dat allerlei
                     elementen in ons rankingmechanisme een rol spelen. We proberen dat continu zo bij
                     te stellen dat mensen een positieve ervaring hebben. Maar misschien mag ik het iets
                     concreter maken met, weer, een voorbeeld, op het gevaar af dat het eventjes tijd kost.
                     Er zijn natuurlijk heel veel reacties mogelijk op Facebookberichten: je hebt commentaar,
                     je hebt inderdaad de like en je hebt een aantal verschillende emoticons, emoji's,
                     waarmee je kunt reageren. Ik kan me nog herinneren dat ik een paar jaar terug op een
                     gegeven moment een ngo aan de telefoon had. Zij zeiden: «We plaatsen regelmatig nieuwsberichten
                     uit andere delen van de wereld die best wel heel verdrietig en schokkend zijn. Mensen
                     plaatsen daar over het algemeen negatieve emoji's bij, want het zijn ook gewoon nare
                     dingen. Maar we willen niet dat we nou overal heel laag in tijdlijnen komen, want
                     het is juist van belang dat de mensen dit zien.» Nou ja, dat is zo'n voorbeeld dat
                     misschien minder straightforward is dan wat mevrouw Van Ginneken hier aanhaalt, maar
                     dat ook aangeeft dat heel veel dingen in balans gebracht moeten worden. Voor ons is
                     het dan de puzzel om ervoor te zorgen dat waardevolle berichten bovenaan komen. En
                     daar zullen we elke dag naar blijven streven.
                  
De voorzitter:
Dank. Ik ga eerst naar mevrouw Van Weerdenburg, dan naar mevrouw Rajkowski en dan
                     naar mevrouw Koekkoek.
                  
Mevrouw Van Weerdenburg (PVV):
Ik ga hier misschien even tussenin zitten, want er lijkt een misverstand te zijn of
                     een difference of opinion. U zegt: wij nemen vooral als maatstaf dat mensen een prettige
                     ervaring hebben op ons platform en zolang ze blijven komen, is dat zo. Kan het zo
                     zijn dat heel veel mensen uw platform juist gebruiken om terug te rage-tweeten of
                     om...? Nou ja, om wat mevrouw Haugen rage-clicking noemde. Mensen willen dan gewoon
                     eventjes tien minuten schreeuwen op Facebook, dan zij ze het kwijt en gaan ze lekker
                     weer door met de dingen die ze voor die dag gepland hebben. Kan het zijn dat mensen
                     uw platform juist daarvoor gebruiken en dat fijn vinden? Kan het dus zijn dat ze daardoor
                     een prettige ervaring hebben? Zo ja, dan is dat misschien ook wel een soort goede
                     ventielfunctie.
                  
De heer Haveman:
Nee, bij mijn beste weten is het over-, over-, over-, overgrote deel van de content
                     op Facebook prettige, vriendelijke, gezellige, warme, waardevolle content.
                  
Mevrouw Rajkowski (VVD):
Dank voor de beantwoording. Mijn levenshouding is in die zin: ik geloof er niet in
                     dat bij Facebook allemaal mensen werken die denken «het is negen uur, de dag begint
                     en wij gaan even lekker zorgen dat er overal gepolariseerd wordt», et cetera. Dus
                     op die manier kijk ik er ook niet naar. Ik denk niet dat er vervelende mensen bij
                     Facebook werken die dit graag willen veroorzaken in landen, et cetera. Maar ik zie
                     wel hoe snel het bedrijf is gegroeid en welke rol bedrijven als Facebook uiteindelijk
                     spelen in onze samenleving. Het is gewoon de openbare publieke ruimte. Dat is het
                     gewoon! En daar komt gewoon een bepaalde verantwoordelijkheid bij kijken.
                  
In het begin hoorde ik u zeggen: expliciete oproepen tot haat willen we niet en die
                     halen we dan ook neer waar dat kan. Gisteren gaf Frances Haugen aan in het gesprek
                     met ons: oké, maar onze technieken, onze algoritmen en onze AI zijn ook überhaupt
                     nog niet sterk genoeg om dit allemaal goed op te kunnen sporen, ook omdat taal gewoon
                     heel lastig te begrijpen is. Soms zijn het hele, hele fijne dingen en zover is die
                     techniek nog niet. Daar gaat mijn vraag over. Aan de ene kant denk ik: oké, als ik
                     een advertentie krijg, lukt het om die supergepersonaliseerd weer te geven. Dus ik
                     krijg bijvoorbeeld schoenen in beeld en dan denk ik: hé, ik wist nog helemaal niet
                     dat ik die wilde en dat ik die nodig had. Dat is dan weer fijn, maar aan de andere
                     kant lukt het dan weer niet om hele, hele zware dingen als datingfraude en orgaanhandel
                     in andere landen ervanaf te halen. Dus mijn vraag is: zijn jullie dan te snel gegroeid?
                     Doen jullie wel genoeg? Of kunnen jullie het gewoon nog niet?
                  
De heer Haveman:
Dank voor deze vraag. Misschien is het allereerst goed om te beginnen met de opmerking
                     dat ik dat stukje van mevrouw Haugen ook gezien heb. Het percentage dat ze noemde
                     over onze AI – onze artificial intelligence, de kunstmatige intelligentie die achter
                     hatespeech aan zit – sloeg echt specifiek op hatespeech die louter en alleen door
                     AI was gevonden en neergehaald. Dat zijn gelukkig niet al onze systemen, want we hebben
                     40.000 mensen aan de achterkant die werken aan veiligheid en beveiliging. Als het
                     specifiek om hatespeech gaat, is het verder heel belangrijk om toch ook niet alleen
                     te kijken naar de output maar ook naar de outcome. Wat is de situatie waar je bent?
                  
Ik noemde in mijn inleiding heel kort wat wij meten met prevalentie. Dus hoeveel van
                     de eventueel kwalijke content wordt alsnog gezien op je platform, ondanks al je maatregelen?
                     Dat is immers wat je wilt weten en dat is misschien ook nog een vervolgantwoord op
                     de eerdere vraag van mevrouw Van Weerdenburg over wat mensen eigenlijk zien op het
                     platform en wat er nou echt gebeurt op ons platform. In onze kwartaalrapportages van
                     het Community Standards Enforcement Report geven we ook prevalentiegetallen. Daarvoor
                     doen we steekproeven op ons eigen platform van bepaalde categorieën. Dat zijn bijvoorbeeld
                     hatespeech, terrorismecontent en onlinekindermisbruik; het gaat dan om dit soort verschrikkelijke
                     zaken.
                  
Over hatespeech, zeer belangrijk in deze context, hebben we in het derde kwartaal
                     van 2021 gerapporteerd dat de prevalentie in een halfjaar is gehalveerd naar 0,03%.
                     Van de 10.000 berichten op Facebook die mensen zien, bevatten er dus drie mogelijk
                     hatespeech. Het gaat dan dus niet om de berichten die er zijn, maar om de berichten
                     die mensen daadwerkelijk zien, de views. Een halfjaar eerder waren dat er nog zes
                     en we hebben dat door middel van AI en door zelf scherp te modereren, kunnen halveren.
                     Volgens mij kunnen we daaraan zien dat er zeker positieve vooruitgang is.
                  
De voorzitter:
Dank. Dan de laatste vraag in het blok, mevrouw Koekkoek.
Mevrouw Koekkoek (Volt):
Ik heb heel goed geluisterd naar de eerdere vragen en uitleggen. Waar we nu mee worstelen,
                     is volgens mij niet nieuw. Al jarenlang zijn er producten die anders bedoeld zijn
                     en toch op een bepaalde manier impact hebben op de samenleving. Ik denk bijvoorbeeld
                     aan de supermarkt. De meerderheid van wat er ligt in de supermarkt, is hartstikke
                     gezond en goed voor je en heb je nodig om te overleven, maar we weten ook dat als
                     er snoep of sigaretten bij de kassa liggen, mensen die eerder kopen, waar de samenleving
                     last van heeft en wat een impact heeft. Hetzelfde verhaal geldt hiervoor. Het merendeel
                     is allemaal hartstikke aardig maar dat geldt absoluut niet voor een klein percentage,
                     dat wel impact heeft op de samenleving. Als het bij die supermarkt misgaat, hebben
                     we ook nog de politie en de samenleving die er iets van vinden en een overheid die
                     kan reguleren, bijvoorbeeld door snoep in minder kleurrijke verpakkingen ergens anders
                     te leggen. Dat is het geval van Meta echter niet zo. Ik heb goed naar uw inleiding
                     geluisterd. Experts worden geconsulteerd door Meta. De beveiliging zit bij Meta. Mijn
                     vraag is de volgende. Vindt u ook niet dat gezien de impact op de samenleving, bepaalde
                     informatie die nodig is om wat betreft de beveiliging dat kleine stukje eruit te halen,
                     juist bij de samenleving zou moeten liggen? Zouden we bijvoorbeeld niet de code voor
                     de aanbevelingsalgoritmes openbaar moeten maken, zodat de samenleving die uiteindelijk
                     met de impact wordt geconfronteerd, ook mee kan kijken en mee kan beveiligen?
                  
De heer Haveman:
Dank voor deze vraag, mevrouw Koekkoek. Er spelen heel veel algoritmes een rol om
                     een veilige situatie op ons platform te creëren. Er zijn algoritmes die kunnen helpen
                     om een kwalijke content weg te halen of die lager te zetten en om ook de ranking te
                     bepalen. Dat zijn optelsommen, waarvan ik niet weet of dat makkelijk is om dat publiek
                     neer te zetten en hoe dat het verder brengt.
                  
Mevrouw Koekkoek (Volt):
Voordat we het te breed gaan trekken; ik blijf even bij de analogie met de supermarkt
                     omdat die volgens mij makkelijk te volgen is. Ik zeg ook niet dat je alle marketingstrategieën
                     openbaar moet maken. Het gaat mij om het kleinere percentage dat niet opgespoord kan
                     worden en waar we geen grip op hebben, maar dat zeker wel impact heeft op de democratische
                     rechtsorde in onze samenleving. Zouden we dat niet openbaar moeten maken of desnoods
                     alleen moeten delen met wetenschappers en onderzoekers, in ieder geval met externen?
                     Want op dit moment vindt de enige check die gedaan wordt, intern plaats. Dus degene
                     die ervan profiteert, checkt ook. En dat doen we normaliter eigenlijk nooit in de
                     samenleving.
                  
De heer Haveman:
Dat delen van data met wetenschappers is een vrij fundamenteel punt. Daar zijn we
                     hard mee bezig. We kennen FORT, Facebook Open Resource and Transparency, via welke
                     we een aantal datasets nu al ter beschikking stellen als het gaat om democratie en
                     verkiezingen. Dat betreft ook veel initiatieven met wetenschappers in Amerika. Het
                     probleem met het nu al delen van data is dat de huidige GDPR/AVG, de combinatie van
                     hoe toezichthouders zijn geconstelleerd, helaas nu niet de juridische duidelijkheid
                     biedt aan ons om die data compliant, consistent en schaalbaar te delen, omdat het
                     persoonsgegevens zijn. Dat is echt een fundamenteler probleem. We zien dit belang
                     wel en we willen dit ook. Daarom zijn we ook bezig in een werkgroep van EDMO, de European
                     Digital Media Observatory, en academici om te kijken of we binnen GDPR tot een artikel 40-code
                     kunnen komen om een framework te creëren om wel eerlijk, doordacht en ethisch een
                     systeem te hebben waarbij we die data actief met academici kunnen delen. De DSA kan
                     daar ook een heel goede rol in spelen door de wettelijke grondslag te organiseren.
                     Maar op het moment is de wet niet goed georganiseerd om de data te delen op een manier
                     zoals we dat graag zouden willen doen om het onderzoek mogelijk te maken. Tegelijkertijd
                     gebeurt er heel veel onderzoek naar ons en brengen we zelf ook peerreviewed papers
                     naar buiten die wel die double check kennen, maar dit is een fundamenteel issue waar
                     we zelf hard mee bezig zijn maar waarbij ook echt hulp van de politiek nodig is.
                  
De voorzitter:
Tot slot zou ik zelf ook nog een vraag willen stellen. Ik merk dat er een groot verschil
                     is tussen enerzijds hoe u aankijkt tegen alles wat uw organisatie wil doen om de veiligheid
                     van de samenleving te vergroten en de negatieve invloed te beperken, en anderzijds
                     de signalen die wij hebben. Dat is natuurkijk heel moeilijk vast te stellen. Zou u
                     als organisatie bereid zijn om mee te werken op het moment dat er een commissie wordt
                     ingesteld die maximaal toegang heeft tot uw organisaties om te kijken hoe dat echt
                     werkt?
                  
De heer Haveman:
Dan moet ik eerst de exacte implicaties weten, omdat wij in heel veel landen opereren
                     en we ook te maken hebben met de wetgeving in die landen. Er zijn heel veel beelden
                     over ons platform. Ik hoorde gisteren nog een aantal beelden, ook wel heftige beelden
                     over hoe slecht Instagram voor de jeugd zou zijn. Als je het gesprek daarover voert
                     met wetenschappers ... Nederland heeft ook een aantal echt vermaarde wetenschappers
                     als het gaat over de ontwikkeling van jeugd. Als je het gesprek daarover voert met
                     wetenschappers in Amsterdam en Rotterdam, dan blijkt dat beeld echt anders en een
                     heel stuk positiever te zijn.
                  
De voorzitter:
Maar dan zou het toch goed zijn als een commissie van deskundigen maximale transparantie
                     krijgt van Meta en Facebook? Dan zou de tweede oproep zijn om niet alleen de data
                     te delen die u wilt delen maar ook de data waarom wetenschappers vragen. Bent u bereid
                     om daaraan mee te werken?
                  
De heer Haveman:
Ik zei net al dat we niet zomaar persoonsgegevens kunnen delen om goede redenen, om
                     goede wettelijke redenen, en dat we samen met de wetenschap bezig zijn om die kaders
                     daarvoor te maken. Daar ben ik persoonlijk heel blij mee, want is het is superbelangrijk
                     om op die manier dat gesprek te kunnen voeren. Vervolgens denk ik dat een bredere
                     dialoog over wat er gaande is in de samenleving, welke rol sociale media daarin spelen
                     en het daarnaar onderzoek doen, zeer waardevol is.
                  
De voorzitter:
Meneer Haveman, dank voor uw statement en uw uitgebreide beantwoording. Hiermee zijn
                     we aan het eind gekomen van het eerste blok. We schorsen tot 11.00 uur en dan gaan
                     we na de schorsing verder met het tweede blok over Google.
                  
De vergadering wordt van 10.46 uur tot 11.00 uur geschorst.
Blok 2
Gesprek met:
– Marco Pancini, Google
De voorzitter:
Aan de orde is de hoorzitting over de werking van socialemediaplatforms en maatschappelijke
                     organisaties als het gaat om polarisatie, radicalisering, ontwrichting en andere onwenselijke
                     impact op democratie en de rechtsstaat. We zijn aangekomen bij het tweede blok. Ik
                     stel de Kamerleden aan u voor. Mevrouw Van Ginneken van D66, mevrouw Van Weerdenburg
                     van de PVV, mevrouw Rajkowski van de VVD en mevrouw Koekkoek van Volt. In het bijzonder
                     heet ik Marco Pancini welkom. Ik ga over naar het Engels nu.
                  
Good morning to Mr Pancini, who joins us via a video connection. Thank you for joining
                     us in this hearing and for the opportunity to discuss the role of social media platforms.
                     Before we start, I would like to introduce the Members of Parliament to you. Ms Van
                     Ginneken from Democrats 66, Ms Van Weerdenburg from the Party for Freedom, Ms Rajkowski
                     from the People's Party for Freedom and Democracy and Ms Koekkoek from the party European
                     Volt. Thank you again, Mr Pancini. I would like to start by giving you the opportunity
                     for an opening statement of five minutes. Afterwards, I would like to ask my fellow
                     members of Parliament to ask you several questions and for you to answer.
                  
Mr Pancini, the floor is yours.
De heer Pancini:
Thank you, Mr Chairman, for having me here today. Dear members of the Digital Affairs
                     Committee, I am honoured to be here. My name is Marco Pancini and I lead the YouTube
                     Government Affairs and Public Policy for Europe. I am honoured to be here with you
                     today and to discuss these important topics.
                  
Over the past eighteen months, we have all used digital services more than ever before.
                     Over half of the world is now online, with our use of technology leaping forward five
                     to ten years in as many months. At YouTube, our mission is to give everyone a voice
                     and show them the world. We believe that everyone deserves to have a voice and that
                     the world is a better place when we listen, share and build the community through
                     our stories. In support of this mission, four freedoms comprise the foundation of
                     our philosophy.
                  
Firstly: freedom of expression. We believe people should be able to speak freely,
                     share opinions, and foster an open dialogue. We believe that creative freedom leads
                     to new voices, formats and possibilities. Secondly: freedom of information. We believe
                     everyone should have easy open access to information and that video is a powerful
                     force for education, building understanding and documenting world events, big and
                     small. Thirdly: freedom of opportunity. We believe everyone should have a chance to
                     be discovered, build a business and succeed on their own terms, and that people, not
                     gatekeepers, decide what is popular. And lastly: freedom to belong. We believe everyone
                     should be able to find communities of support, break down barriers, transcend borders
                     and come together around shared interests and passions.
                  
Over the years, we have seen more and more people come to YouTube to share their experiences
                     and understand their world more deeply. This is especially true when it comes to learning
                     new skills or participating in civic engagement and developing informed opinions about
                     current events. With so many users around the world that are looking at YouTube for
                     information, we have a responsibility to provide a quality experience and to support
                     informed citizenry. Over the past several years, responsibility has been a critical
                     area of investment across our company. We have focused extensively on developing policies
                     and building product solutions with regard to these possibilities, while preserving
                     the opportunity of an open platform. Our approach to responsibility consists of four
                     pillars. The first pillar: we remove content that violates our policies as quickly
                     as possible. We set the responsible rules for each of our products and services to
                     take action against content and behaviour that infringe on them. We also comply with
                     legal obligations wherever we are operating, requiring the removal of content. All
                     our activities in this area happen through a combination of man and machine. We have
                     machines to manage the volume. We are talking about more than 500 hours uploaded every
                     hour. And we have humans for the context. Users can report videos that they believe
                     violate the guidelines.
                  
Removal of content may occur for two reasons. It violates the law or it violates our
                     rules of law, our internal committee guidelines that we have for every product or
                     service. Our policies are not set in stone. We update them as we see fit, as the world
                     around us is changing and developing. For instance, no one saw the pandemic coming.
                     We had to update our policies around covid and vaccines as the situation developed.
                     Among others, we considered the following types of risk when considering which safeguards
                     and rules may be needed for each product and service. Harmful and dangerous behaviour,
                     hateful content, threats, harassment and bullying, violent or graphic content, sexually
                     explicit content, spam, abuse, unsafe practices, and impersonation and misrepresentation,
                     what we call misinformation.
                  
To help us identify and manage gaps in our existing policies, we also consider access
                     from all over the world, including the European countries, user feedback and regulatory
                     guidance.
                  
The second pillar. We want to raise up authoritative voices when users seek breaking
                     news and information. We want to elevate high quality content and authoritative sources
                     where it matters most. For example, we provide covid labels under every video, mentioning
                     the covid pandemic. The information window for COVID-19 content includes links to
                     the government site, Dutch local authorities and the Dutch information site about
                     COVID-19. Another example, also about The Netherlands. During the national elections
                     last year, we provided information on how to vote, where to vote and links to local
                     resources, all from authoritative sources from The Netherlands. We build our product
                     for everyone, while more than 100,000 YouTube employees around the world all have
                     of course a wide variety of views. We have safeguards in place to ensure that we design
                     and enforce our policies in a way that is free from improper bias.
                  
The third pillar. We reduce the spread of content that brushes up against our policy
                     lines or so-called borderline content. We reduce the spread of potentially harmful
                     information while we feature or recommend content, even beyond our policies. While
                     every piece of content that is available on our site should be easy to find by users
                     who are actively looking for it, not all content that is aggravated is recommended
                     to users. We do not have an obligation to do so.
                  
Finally, we want to reward trusted, eligible creators and artists. We set very high
                     standards for quality reliability for publishers and content creators, who would like
                     to advertise on the content. When they need to disperse, we of course want them to
                     be successful. These levers allow us to be consistent in our methodology across products,
                     while tailoring their implementation to fit the uses and the needs of its users. We
                     share the goals of European stakeholders to develop a comprehensive framework that
                     supports consumer protection across digital platforms. However, in such a comprehensive
                     undertaking, the slightest change in the text can have significant and potentially
                     unintended consequences for our responsibility efforts. A negative impact for creators
                     and users is jeopardizing the effectiveness of legislation. For example, as we move
                     into the final stages of the Digital Services Act, we believe it is critical to help
                     the stakeholders better understand how YouTube's approach to responsibility across
                     several areas and how some of the proposals could also negatively impact our current
                     policies and processes. Our hope is that through a constructive dialogue like this,
                     we will be able to balance policy goals and the realities of operating a safe and
                     open digital platform. Thank you for your time. I am very happy to answer any questions
                     you may have.
                  
De voorzitter:
Thank you for your opening statement, Mr Pancini. I would like to give the floor to
                     Ms Van Weerdenburg.
                  
Mevrouw Van Weerdenburg (PVV):
Thank you, Mr Chairman, and thank you, Mr Pancini for enlighting us this morning.
                     Lately, there is a strong opinion that social media platforms play a significant role
                     in social unrest and polarization, radicalization and other undesirable impacts on
                     democracy. What is your opinion on that? Is it true? Is your platform merely a mirror
                     of society or do algorithms or the working of your platform give a megaphone to extreme
                     views?
                  
De heer Pancini:
Thank you for the question. Recommendations are there to help users to find content
                     that they love, content that is positive and engaging for them. That is why we want
                     to make sure that, especially when you are looking for music or entertainment content,
                     you will find content that you like or that people with a similar preference like
                     you also like. When it is about political speech or speech more in general the rules
                     have to be different. We acknowledge that. That is why we want to make sure that,
                     when users are coming to our platform, they find authoritative sources. When a user
                     is searching for breaking news, we want them to find recommended content that is coming
                     from authoritative sources. That was very important during the past years. The task
                     was: make sure that users coming to our platforms were finding this kind of information.
                     That is also true for issues like the pandemic. Of course, if users are searching
                     for content related to COVID-19, we want them to receive recommended content that
                     is in line with the health authorities guidelines. Whenever a video is talking about
                     COVID-19, there are links around the video and near the video that lead to authoritative
                     sources to complete the information for the users.
                  
About the role of platforms like YouTube in the social discourse I would like to point
                     your attention to several facts. First, there is a lot of discussion around the business
                     model of platforms like YouTube. I want to clearly state that since the beginning,
                     it is in our business interest to make sure that content that is recommended to our
                     users is not borderline, is not controversial. Because this is also what our business
                     partners and our advertisers want. Advertisers do not want to be associated with controversial
                     content, borderline content. On the other side, users also want positive content.
                     There is an interesting study from AlgorithmWatch about the very recent German elections,
                     which shows that users coming to YouTube in Germany, who are searching for information
                     around the elections, were recommended content that was not aiming to radicalize their
                     views. This is testament of our efforts to ensure that this is the direction that
                     we are taking.
                  
De voorzitter:
Thank you, Mr Pancini. Ms Van Ginneken.
Mevrouw Van Ginneken (D66):
Thank you. Thank you for being with us, Mr Pancini. I want to dive a bit deeper into
                     the recommendation algorithm. You stated that political speech, political content,
                     is handled differently. This recommendation algorithm is a very important one. Your
                     Chief Product Officer, Neil Mohan, stated that 70% of all the watched content on YouTube
                     came from the recommended section. So, it plays a huge part in helping us find interesting
                     content, but also in finding disturbing content. The recommendation algorithm is not
                     neutral. Last year, Mozilla conducted research and found that over 70% of the recommended
                     videos violate YouTube's own content policies for various reasons. This is quite interesting,
                     especially in non-English speaking countries.
                  
Excuse me for this long introduction, but I think not all viewers are as involved
                     in this as you and I are. In this recommendation algorithm, there is something that
                     is called a rabbit hole. A rabbit hole works as follows: a colleague of mine recently
                     created a new clean YouTube account and watched a video about a PCR-test. He clicked
                     the first recommendation he got and that brought up a video about the validity of
                     PCR-tests. Then he clicked the first recommendation that came out of that video and
                     that was a video about a conspiracy theory on whether or not corona is a hoax. This
                     is called a rabbit hole: you get pulled into radical extremist content quite quickly.
                     This happens on your platform. This is quite a worrying phenomenon, I think, with
                     regard to polarization in our society. Can you reflect on how this algorithm comes
                     up with this extreme content so quickly? What is happening there?
                  
De heer Pancini:
Thank you for this question. I would be very happy to look into the example that you
                     are bringing to my attention and to provide you with feedback. That said, let me put
                     into context our work around recommendation and content more in general. Let us start
                     from the entry point of the conversation. We want to make sure that every piece of
                     content on our platform is in line with our policies. How do we do that? We do that
                     with a combination of machines and humans. Machines help us to find the content at
                     scale, humans review the content and review also the flags that we are receiving from
                     our users. First and foremost, if a piece of content is not in line with our policies,
                     we want to make sure that we are able to identify this content and remove it with
                     as little views as possible. To give you an idea, we have developed a metric about
                     the priority view rate. For every 10,000 views this measures the number of views that
                     come from priority content. In Q3 2021 this was 0.9% to 0.11%, meaning that for every
                     10,000 views only 9/11 were coming from a priority service. Is this perfect? Of course,
                     it is not. It is very important to adapt our policies to local and specific issues.
                     In relation to this, I want to mention one example that in my view is very important
                     in relation to the development of our policies. During the pandemic, we started to
                     see, in Europe in particular, real-life attacks on 5G masts and in plants, because
                     there was this hoax that 5G was one of the reasons why covid was spreading. We took
                     these developments into consideration in our policies in a matter of days. We adapted
                     our policies. This was something that was coming from Europe and from The Netherlands.
                     Of course, this was in conflict with the guidelines from the local authorities. Once
                     again, we were able to attack this content.
                  
Now, moving to the recommendation, because I want to make sure that I answer your
                     question. When it comes to recommendation, of course we do not want to recommend content
                     that is against our policies.
                  
Mevrouw Van Ginneken (D66):
Excuse me, Mr Pancini. I really appreciate that you want to be very specific in your
                     answer, but I want to focus on the negative effects of the algorithm. You mention
                     all kinds of seemingly low numbers, but research also shows that in general 80% of
                     the most arousing, most extreme content is delivered to a small group that is most
                     willing and likely to act on this content. So, small numbers at first glance may have
                     a huge impact on people who are maybe likely to storm the Capitol. This recommendation
                     algorithm has quite a big responsibility. All the mitigating actions you take bypass
                     the fundamental question: should you not adapt the algorithm itself and take a root
                     action on that?
                  
De heer Pancini:
Indeed, that is the main point. What does the small number mean? It means that the
                     way the algorithm works, it is not pushing the users towards the rabbit hole. We strive
                     to push users to a variety of views. That is why I mentioned the recent analysis from
                     AlgorithmWatch. I am aware of the study done by Mozilla. I am also aware of the specific
                     situation where users are already radicalized or where they are searching for content
                     that confirms their bias. Of course, not because of the recommendation but because
                     of the way they are interacting with the platform, if they keep on searching and keep
                     on subscribing for specific channels, they could get the same suggestion. But that
                     is not the way the algorithm works. The algorithm always goes in the direction of
                     finding more views on the case of the radicalization. What we need to do as a society
                     is really take hold of these issues, as we did for example in the context of radicalization
                     and terrorism a few years ago, by providing additional information near every video.
                     If a video is working according to the lines of our policies, borderline would not
                     be recommended for the user to look into this. You want to make sure that near the
                     video there is a clear indication of the authority's opinion. For example, for a hoax
                     or conspiracy theories: when it is against our policies, it is taken down. If it is
                     not against our policies but if the way the content is expressed is borderline, we
                     do not want to recommend this video and we will use a local expert to identify this
                     content. If a user is searching for this video and finds the video, around the video
                     we want to make sure that the user can find more information coming from authoritative
                     sources.
                  
De voorzitter:
Thank you, Mr Pancini. I would like to give the floor to Mrs Rajkowski.
Mevrouw Rajkowski (VVD):
Thank you, Mr Pancini, for being here today. We invited multiple social media platforms
                     and YouTube and Facebook/Metaware were the two that said: we are going to come and
                     going to take our responsibilities. That is great, thank you. I want to talk to you
                     about facts. Everyone has a feeling or an image of what social media platforms do.
                     When I look at the facts, I see that in January of this year, according to an article
                     in The Guardian, there was a letter signed by more than 80 groups of fact checkers
                     around the world. They said that the video platform is hosting content by groups including
                     Doctors for the Truth, who spread covid misinformation, and videos supporting fraud
                     narrative during the US presidential election. You just stated in your introduction
                     that you are doing a lot when it comes to misinformation. The good thing here is that
                     your platform allows to do this extensive fact checkers research. I want to ask you
                     the following. In Europe, we are working on new legislation, the Digital Services
                     Act and the Digital Markets Act. You are probably well aware of this. What is holding
                     you back to take this legislation into account and to take your responsibility right
                     now? Why are you not waiting until this legislation is in force and obliging you to
                     do so?
                  
De heer Pancini:
Thank you, Mr Chair. That is also an excellent question. This question gives me the
                     opportunity to speak about the work that we are doing with fact checkers in the context
                     of the code of practice on misinformation. You are probably familiar with the previous
                     code of practice on misinformation that we signed on the occasion of the last European
                     elections, to make sure that we had processes and best practices in place to handle
                     all this information in the context of the European elections. The aim of this code
                     for Brussels was to monitor closely. We have been providing at first a bi-weekly,
                     then a monthly and bi-monthly report to the European Commission, which is publicly
                     available, about the efforts that we are taking against COVID-19. We believe that
                     there is room to improve this code of practice. That is why we are actively discussing
                     how to improve and strengthen the obligations of the code of practice with a very
                     big group of stakeholders, including fact checkers. Of course, that is going to be
                     in line with the framework of the DSA. You are correctly suggesting that we are not
                     waiting for the DSA to tell us how to take hold of important societal issues like
                     this information.
                  
Mevrouw Rajkowski (VVD):
Thank you. Let us make it concrete. This article is relatively new, from January,
                     so just a few weeks ago. What has changed since then?
                  
De heer Pancini:
The article is actually an important call for stricter collaboration with the fact
                     checkers. This is absolutely in line with our interests. We are investigating how
                     we can work in a more effective way with fact checkers across the world in the context
                     of the code of practice and also how to ensure that we can help each other and find
                     positive ways to inform users. I think the letter was an important reminder for us
                     about how we need to work with fact checkers in a more effective way. We are looking
                     into this right now. We hope that in a few weeks’ time we can announce that the new
                     code of practice has been signed.
                  
De voorzitter:
Thank you, Mr Pancini. I will give the floor to Mrs Koekkoek.
Mevrouw Koekkoek (Volt):
I want to ask a question about the importance of the right to information that you
                     rightfully mentioned in your introduction, especially in the context of the dependence
                     on Google products. We, as customers, but also in the context of businesses or education,
                     have seen that there are many different Google services and products. There is also
                     interoperability between these services and products. Therefore, in practice we are
                     a society that is quite dependent on how Google products function with each other.
                     I can see that there is a risk that actually limits the right to information, because
                     all those customers, but also teachers and school students are dependent on what Google
                     suggests and on what is offered. How do you reflect on this? Especially on the negative
                     impact on the right of freedom of information that bigger market players such as yourself
                     might cause?
                  
De heer Pancini:
It is in the Google DNA – and YouTube is absolutely in line with this – to offer products
                     that are open and available to everyone and to create a vibrant ecosystem. The main
                     example is Android. Android is an operating system for mobile phones, which can be
                     tailored and can be used from a different OEM. It is creating a vibrant ecosystem
                     of platforms and applications. Just to give you an idea, the main way for users to
                     access TikTok is through Android. TikTok is a very effective and available competitor
                     for services like YouTube. That is for sure the direction the openness of the platforms
                     that we are creating is taking. That said, the call for interoperability is very important.
                     We are looking into these topics in the context of the DSA and the DMA. When we talk
                     about interoperability and, for example, transparency, it is always very important
                     to understand the balance that we need to find between this very important concept
                     and other equally important concepts like safety, security and privacy. We have to
                     make sure that interoperability and transparency are not creating situations in which
                     we put the safety and the data of our users at risk. I am happy to subscribe to everything
                     you said and to confirm that our view goes in the direction of building open platforms.
                  
De voorzitter:
Mrs Koekkoek.
Mevrouw Koekkoek (Volt):
Maybe a question to specify this. What I hear in your answer is mostly related to
                     market competition and the choices that we can make as a customer. But what I meant
                     is that as users, for example teachers or students, we all sign user agreements when
                     we use products and services. In those product agreements there are certain standards
                     for privacy and for what can be done with our data. Considering that there are different
                     services and products but that the operator is the same, the privacy standards in
                     those agreements are similar. This is what I meant by the market power of those agreements
                     versus the right to information that we all have. How would that perhaps negatively
                     conflict with each other or spiral us in a direction that would actually limit our
                     right to information? Because we are all operating under the same user agreements.
                  
De voorzitter:
Your reaction, Mr Pancini.
De heer Pancini:
That is an excellent question. I think that my colleagues from the Cloud team would
                     probably be better equipped to answer your question. From a consumer point of view,
                     there are so many rules and regulations that are in a certain sense helping the platforms
                     to build their terms and conditions and privacy policies, that from that vantage point
                     I do not see this conflict. I and my colleagues from the Cloud team will be very happy
                     to explore this point in more detail with you.
                  
De voorzitter:
Thank you, Mr Pancini. I would like to give the floor to Mr Ceder on behalf of the
                     Christian Union.
                  
De heer Ceder (ChristenUnie):
Thank you so much for being here, Mr Pancini. I have a question for clarification.
                     Is it true that the end goal for your platform, for Google and YouTube, is that people
                     spend as much time as possible on the platform, with the aim of creating advertisement
                     opportunities and the monetary model? Is that true or do you have another objective?
                     This relates to my next question.
                  
De heer Pancini:
It is not true. I want to confirm that our goal is twofold. Firstly, we want to make
                     sure that our partners, the creators, can have a voice and can find an audience. We
                     also want to create an effective business model with ways to monitor by which creators
                     can help make it a sustainable business. Very soon, we are going to provide the data
                     about what this means in The Netherlands. We are very happy with that. On the other
                     side, we want to make sure that users can have a variety of sources and voices to
                     entertain themselves, to inform themselves, to learn something. To your specific question:
                     you said this could be an act of faith that you are asking. No, it is not an act of
                     faith. What might help to convince you is that if we do not do this in a proper way
                     – for example if we suggest borderline content, controversial content to our users –
                     the advertisers that are helping us to build an effective business would be unhappy
                     and would go away. Therefore, our business would fail.
                  
De voorzitter:
Thank you. Your next question, Mr Ceder.
De heer Ceder (ChristenUnie):
Thank you for answering that question. I have another question related to your answer.
                     As we previously discussed, the algorithm provides videos that would most likely be
                     appealing to people. Is that not just because the platform wants people to stay as
                     long as possible on the platform? If that was not the case, you would not provide
                     the most appealing videos for people. Could you clarify that point? I hear what you
                     are saying, but at the same time, the usage on YouTube and the answers that were given
                     previously do not seem to match. So, just for clarification.
                  
De heer Pancini:
That is an excellent point. That is why, while on one side making sure that users
                     come to our platform and find the content that they love, at the same time we respect
                     a quality time for our users. We built a series of tools for the wellbeing of our
                     users. These tools are for example the possibility to switch off Autoplay, the possibility
                     to get reminders about the time that you are spending online, or the reminder to take
                     a break after watching a certain number of videos. It is really not about the quantity
                     of time that users are spending on the platform, it is about the quality of the time
                     spent on the platform. This is the kind of virtual circle you want to create. In order
                     to assist parents to do this effectively, we provide parents with tools that can help
                     them to make sure that their kids have healthy and positive experiences on our platform.
                     For example, which content they can watch on YouTube but also how much time the kids
                     can spend on YouTube. It is a holistic approach which strives to ensure that users
                     spend quality time on our platform and have a quality experience.
                  
De voorzitter:
Thank you, Mr Pancini. Mrs Van Ginneken.
Mevrouw Van Ginneken (D66):
I have another question about the effects of the recommendation algorithm. Earlier,
                     you already mentioned a few seemingly low numbers of extreme content that is delivered.
                     I am still not quite satisfied with the answers I got. We know that the recommendation
                     algorithm delivers this extreme content to exactly the most receptive and the most
                     vulnerable users. The very essence of the recommendation algorithm is that it brings
                     the content to people, who are most likely to engage with it. The Dutch Intelligence
                     and Security Service warned about the polarizing and radicalizing effect of this mechanism,
                     because it also brings extreme content to those people, who are most likely to act
                     on it in a physical space, as we saw in the United States with the storming of the
                     Capitol. The low numbers you constantly report are, to my taste, somewhat diminishing
                     the urgency of the problem. It gives me the idea that you are giving up on those people
                     and the huge negative impact they, because of your recommendation algorithm, can have
                     on our society. Can you reflect on that?
                  
De heer Pancini:
That is absolutely a very valid point. I would like to mention three additional clarification
                     points. Firstly, once again it is in our business interest that we do not recommend
                     borderline content. For the majority of users, borderline content creating engagement
                     does not bring any value to advertisers and does not create any positive engagement.
                     So, firstly the business argument. But then I want to be a little more specific. It
                     is not only a matter of quantity in the numbers I report. It is also a matter of quality.
                     In order to identify borderline content and specifically content that is not against
                     our policies but that is controversial, we use local experts that are helping us in
                     rating the content. When content is identified as borderline, it is not recommended
                     anymore.
                  
Finally, it obviously is a challenge for us, because we want to find the fine balance
                     between keeping the platform open to different points of view and making sure that
                     we do not run the risk to help people to radicalize. How are we trying to achieve
                     this? With all the tools that I described before. But we also really welcome the support
                     from institutions. For example, I would like to bring to your attention the recent
                     decisions that were made by the courts in The Netherlands about two actions that we
                     took. Two very important speakers, including a politician, were first appealing to
                     us and then to the relevant courts concerning our decisions. The courts confirmed
                     that our decisions were right. I do not want to say in a certain sense that we want
                     to offload these to courts, but I want to tell you that, since sometimes these decisions
                     are so delicate and important, we of course want the judge and jury to enlighten this.
                     We welcome the confirmation and we welcome the rule of law, which helps us to do a
                     good job.
                  
Mevrouw Van Ginneken (D66):
But, referring to the article in The Guardian that my colleague Rajkowski quoted earlier,
                     the researchers stated that all the current measures that you are taking prove insufficient,
                     especially in non-English speaking countries. So, there is still a problem to solve
                     here.
                  
De voorzitter:
Maybe before you start answering, Mr Pancini, Mrs Rajkowski would like to add something
                     as well.
                  
Mevrouw Rajkowski (VVD):
Yes, thank you. Of course, we understand that YouTube does not have all the knowledge
                     when it comes to countries about what is right and what is wrong. If a platform behaves
                     not only like a company, but also like the police and the judge, something is going
                     wrong. I would like to ask you this specific question. How many times, let us say
                     in January of this year, have you found something on the platform that is possibly
                     illegal? How many times did you give a signal to the Dutch police and the Dutch intelligence
                     institutes?
                  
De heer Pancini:
Thank you so much for these questions. Let us start with the first one. The article
                     talks about different platforms. By the way, one example in the article we are looking
                     at is making reference to a video that was linked from Facebook. I think the letter
                     from the fact checkers is a very important call for improving the collaboration. That
                     was also how we followed-up with the fact checkers: to look into ways in which we
                     can work together, especially in the context of the coming code of practice.
                  
On the language side, I confirm that, for example with the attacks on the 5G masts
                     in The Netherlands, we take into consideration local specificities and local languages,
                     including the use of local experts to help us identify borderline content. Regarding
                     your question about how many times, I cannot be so specific, because the data are
                     not yet available. Of course, they have to be processed. If you go to our transparency
                     record however, you will find all the information there relating to how many requests
                     for information we received from law enforcement across the world and how many answers
                     we gave.
                  
Mevrouw Rajkowski (VVD):
Excuse me for interrupting you, Mr Pancini. I am just looking at the time. Of course,
                     I could imagine that this would be your answer, when I asked you about the numbers
                     for January. That was only two weeks ago. I can imagine that you would say that you
                     do not have the data yet. Let me then ask you the same question about January last
                     year. I am not asking you how many times intelligence services asked you to deliver
                     information, but how many times you saw something happen on the platform of which
                     you were thinking: this is someone from The Netherlands trying to create something
                     that we do not like, something that is illegal. How many times have you given signals
                     to the Dutch authorities?
                  
De heer Pancini:
That is a question about delicate information. I think I cannot disclose that in this
                     public hearing. But I welcome you to get in touch with for example Europol or the
                     association that is looking into S.E.S.A.M.E. in The Netherlands to hear how we are
                     collaborating under the rule of law in this regard. Especially the example of S.E.S.A.M.E.
                     is in my view very important. Every time we find a piece of content on our platform
                     that is child abuse material, we communicate this content to the international umbrella
                     organization coordinating action against these horrible events. This association then
                     refers it to the local authorities for following up on investigations, including European
                     law enforcements. This happens for high profile crimes. Our partners can confirm that.
                  
De voorzitter:
Thank you, Mr Pancini. That brings us to the end of this public hearing. I would like
                     to thank you for answering the questions of our Members of Parliament.
                  
We zijn aan het einde gekomen van het tweede deel en daarmee ook aan het einde van
                     deze hoorzitting van de vaste commissie voor Digitale Zaken over de rol van socialemediaplatforms.
                     Ik dank de mensen thuis die ons gevolgd hebben. Ik dank de Kamerleden en natuurlijk
                     onze gasten. Thank you again, Mr. Pancini. Ik wens iedereen een hele plezierige dag
                     en sluit deze vergadering.
                  
Sluiting 11.45 uur.
Ondertekenaars
- 
              
                  Eerste ondertekenaar
R.J. Kamminga, voorzitter van de vaste commissie voor Digitale Zaken - 
              
                  Mede ondertekenaar
L. Boeve , griffier