Verslag van een hoorzitting / rondetafelgesprek : Verslag van een hoorzitting, gehouden op 11 februari 2021, over de rol van socialmediaplatformen
26 643 Informatie- en communicatietechnologie (ICT)
Nr. 823 VERSLAG VAN EEN HOORZITTING
Vastgesteld 9 maart 2022
De vaste commissie voor Digitale Zaken heeft op 11 februari 2022 gesprekken gevoerd
over de rol van socialmediaplatformen.
Van deze gesprekken brengt de commissie bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de commissie, Kamminga
De griffier van de commissie, Boeve
Voorzitter: Azarkan
Griffier: Boeve
Aanwezig zijn zes leden der Kamer, te weten: Azarkan, Ceder, Van Ginneken, Koekkoek,
Rajkowski en Van Weerdenburg,
alsmede de heer Haveman en de heer Pancini.
Aanvang 10.01 uur.
De voorzitter:
Ik heet u allen welkom bij deze hoorzitting van de vaste commissie voor Digitale Zaken
over de rol van socialmediaplatformen. Deze hoorzitting bestaat uit twee delen van
ieder 45 minuten. De centrale vraag luidt als volgt: welke rol speelt de werking van
socialmediaplatformen bij maatschappelijke onrust, polarisatie, radicalisering, ontwrichting
en andere onwenselijke impact op democratie en rechtsstaat?
Van de Kamer zijn aanwezig: mevrouw Van Ginniken namens D66, mevrouw Van Weerdenburg
namens de PVV, mevrouw Rajkowski namens de VVD en mevrouw Koekkoek namens de Partij
voor de Dieren...
Mevrouw Koekkoek (Volt):
Volt!
De voorzitter:
Sorry, namens Volt. Neem me niet kwalijk. Het zat heel dicht bij elkaar.
Ik verwacht nog een of twee collega's. Welkom ook aan de mensen die deze hoorzitting
op afstand volgen. In het bijzonder heet ik welkom de heer Haveman. Hij gaat in het
eerste blok met ons in gesprek namens Facebook, of de andere naam waaronder het bekend
is, namelijk Meta, maar dat is volgens de mensen thuis denk ik nog niet helemaal duidelijk.
Meneer Haveman is daar Head of Public Policy Nederland, België en Luxemburg.
Blok 1
Gesprek met:
– Edo Haveman, Meta
De voorzitter:
Welkom, meneer Haveman. U krijgt eerst de gelegenheid voor een kort openingsstatement
van maximaal vijf minuten. Vervolgens zullen we starten met de inbreng van een aantal
leden van de gezamenlijke voorbereidingsgroep. Daarna gaan we in op de vragen van
individuele leden. Ik geef graag het woord aan u, meneer Haveman.
De heer Haveman:
Dank u wel.
Voorzitter, geachte Kamercommissie. Allereerst hartelijk dank voor de uitnodiging
om hier te mogen spreken. Ik ben Edo Haveman, Hoofd Public Policy bij Meta voor de
Benelux. Ik ben in die rol verantwoordelijk voor publiek beleid in Nederland, België
en Luxemburg. Ik ga over de contacten over onze beleidskeuzes met politici, toezichthouders
en beleidsmakers, en de lokale invulling van hoe wij onze verantwoordelijkheid nemen
als bedrijf. Ik begin mijn introductie met enkele opmerkingen over het belang van
veiligheid voor mijn bedrijf. Daarna zal ik in iets meer detail uitleggen wat onze
benadering is op het gebied van veiligheid. Tot slot wil ik ingaan op de werking van
ons rankingalgoritme.
Veiligheid en welzijn vormen de basis van ons bedrijf en liggen aan de grondslag van
ons businessmodel. Als mensen zich niet veilig voelen, zullen ze ons platform niet
gebruiken en niet terugkomen. Adverteerders willen niet dat hun merken en producten
worden weergegeven naast extreme en hatelijke inhoud. Daar zijn ze altijd heel duidelijk
over geweest. Met andere woorden, ons businessmodel is volledig in lijn met het nastreven
van een prettig en veilig platform. We hebben bij Meta dan ook vele duizenden mensen
werken aan veiligheid en beveiliging. We hebben daarin sinds 2016 13 miljard dollar
geïnvesteerd. In 2021 gaat het alleen al om 5 miljard dollar. Laat me kort een toelichting
geven op onze aanpak wat betreft veiligheid. Onze aanpak kent vijf pilaren: beleid,
tools, materialen, samenwerkingen en feedback.
Allereerst beleid. We hebben beleid, bijvoorbeeld onze richtlijnen voor de community,
onze huisregels, waarin we proberen een evenwicht te vinden tussen de volgende waarden:
mensen een stem geven, authenticiteit, waardigheid, privacy en veiligheid. In deze
richtlijnen staat exact beschreven wat wel en niet toegestaan is op Facebook. Het
doel is dat mensen zich veilig voelen om te delen wat voor hen belangrijk is met familie
en vrienden. Op basis van dit beleid verbieden we aanzetten tot haat of geweld, gevaarlijke
organisaties en ook fraude, naakt of pesten.
Dan de tweede pilaar, tools. We hebben tools waarmee we ons beleid kunnen handhaven.
Mensen kunnen berichten of reacties melden die mogelijk onze regels schenden, zodat
we ernaar kunnen kijken. We gebruiken ook slimme technologie, kunstmatige intelligentie,
om inhoud die mogelijk in strijd is met onze regels, te vinden nog voordat deze aan
ons wordt gemeld. In ons transparantierapport maken we elk kwartaal bekend hoe goed
dit gaat. Daarin staan het aantal berichten per categorie waarop actie is ondernomen,
het percentage van de inhoud waarop actie is ondernomen dat we proactief hebben gevonden,
het aantal bezwaarschriften, het aantal herstelde berichten en de prevalentie van
specifieke inhoud, dus hoeveel inbreuk makende inhoud daadwerkelijk wordt gezien door
gebruikers op ons platform. Onze tools werken, want het merendeel van de verwijderde
inhoud wordt opgespoord door deze slimme systemen. De prevalentie daalt gestaag.
Dan de derde pilaar, materialen. Op ons platform, in ons Helpcentrum en Veiligheidscentrum,
bieden we materialen om mensen te helpen begrijpen hoe onze tools werken en om hen
te helpen met specifieke problemen.
Vier: samenwerkingen. We hebben samenwerkingsverbanden in veel landen, waaronder Nederland.
In Nederland werken we met veiligheidsorganisaties als het EOKM, safetyNed en 113
Zelfmoordpreventie. We werken ook met Nederlandse factcheckers in dienst van AFP en
DPA. We werken met toezichthouders, zoals de AFM, de NVWA en de Ksa, en overheidsorganisaties,
zoals het Ministerie van Binnenlandse Zaken, bijvoorbeeld rondom de verkiezingen,
de politie en inlichtingendienst AIVD.
Dan de vijfde pilaar, feedback. Via de genoemde organisaties, maar ook van academici,
experts, mensen op ons platform en politici krijgen we voortdurend feedback om onze
tools, systemen en diensten altijd te kunnen blijven verbeteren.
Deze aanpak onderstreept eigenlijk al waar ik mijn toelichting mee begon: veiligheid
en welzijn vormen de kern van ons bedrijf en liggen ten grondslag aan het businessmodel.
Dit werk stopt nooit en we zullen daarin blijven investeren, ook dit jaar weer.
Ik denk dat het nuttig is om even wat tijd te besteden aan ranking en hoe ons rankingalgoritme
werkt, zodat dit helder is voordat we aan de vragen beginnen. De belangrijkste manier
waarop mensen Facebook ervaren, is via hun nieuwsfeeds. Gemiddeld hebben mensen op
elk willekeurig moment een paar duizend berichten beschikbaar in hun nieuwsoverzicht.
Dat zijn de updates van hun vrienden, van de pagina's die ze volgen et cetera. Maar
ze besteden slechts tijd aan het bekijken van zo'n 300 berichten. Het gepersonaliseerde
proces dat we gebruiken om van de duizenden berichten te komen naar de berichten die
je in je feed ziet, wordt «rangschikking» genoemd. Dat rangschikkend proces is ontworpen
om het kerndoel van de nieuwsfeed te bereiken, namelijk mensen helpen berichten te
vinden die het meest waardevol voor hen zijn. In lijn met wat ik eerder al stelde,
zijn we er niet bij gebaat om mensen verontrustende inhoud te laten zien. Als mensen
zich niet veilig voelen, zullen ze in de toekomst minder snel terugkeren en schieten
we uiteindelijk onszelf in de voet.
Nog even de werking van nieuwsfeeds in detail. Er zijn vier componenten die belangrijk
zijn voor de volgorde waarin je berichten te zien krijgt: inventaris, signalen, voorspellingen,
score. Allereerst inventaris. Dat zijn eigenlijk alle potentiële berichten die je
nog niet hebt gezien van vrienden, groepen en pagina's die je volgt. Dan signalen,
voorspellingen en score. We hebben tienduizenden gepersonaliseerde signalen over de
waarde van deze berichten en tientallen voorspellingen om de waarschijnlijkheid van
een interactie te bepalen. Die samen leveren een score op voor elk bericht, elke keer
dat je Facebook opent. Vervolgens maken we daar een eindscore van. Aanwijzingen dat
inhoud op de een of andere manier problematisch zou kunnen zijn, leiden weer tot aftrek
van de beginscore. Zodra deze integriteitsgerelateerde problemen zijn meegenomen,
krijgt elk bericht een eindscore, elke keer dat je Facebook opent. Die eindscore bepaalt
de volgorde van de berichten, want die worden op basis van de score op een logische
volgorde gezet. Elke persoonlijke feed is daarmee uniek en voor iedereen anders. We
werken voortdurend op basis van feedback om die rankingmechanismen te verbeteren.
We gebruiken daarvoor input van externe experts, maar natuurlijk ook van de mensen
die Facebook zelf gebruiken. Daarbij kunnen mensen er ook zelf voor kiezen om alsnog
de feed chronologisch weer te geven.
Over deze aftrekmechanismen willen we open en transparant zijn. In onze communityrichtlijnen
leggen wij uit wat we verwijderen, en bij het type inhoud dat we degraderen, leggen
we uit welke zaken aftrek krijgen en daarom dus minder zichtbaar zijn op Facebook.
Dat kan zijn omdat het problematisch is of anderszins van lage kwaliteit. Voorbeelden
zijn clickbaitlinks, sensationele gezondheidsinhoud, commerciële gezondheidsberichten,
nieuwsartikelen zonder transparant auteurschap, websites die in hun verkeer te afhankelijk
zijn van Facebook, misinformatie en inhoud geplaatst door herhaaldelijke overtreders
van ons beleid. Dit soort berichten zouden hogere scores kunnen krijgen dan wenselijk,
maar krijgen dus aftrek om ervoor te zorgen dat mensen op ons platform waardevolle
berichten te zien krijgen. Dus ook in onze ranking staan veiligheid en welzijn centraal.
Resumerend. Veiligheid en het bieden van een prettig platform zijn goed voor onze
business en past binnen onze missie. Als mensen zich niet veilig voelen, zullen ze
ons platform niet gebruiken. Adverteerders willen hun advertenties niet naast kwalijke
berichten hebben staan. Ik hoop dat ik duidelijk heb kunnen maken dat veiligheid ten
grondslag ligt aan dit alles.
Hartelijk dank en ik beantwoord graag uw vragen!
De voorzitter:
Dank, meneer Haveman, voor uw inleiding. Ik ga graag naar de Kamerleden voor hun vragen
en geef als eerste het woord aan mevrouw Van Ginneken namens de voorbereidingsgroep.
Mevrouw Van Ginneken (D66):
Dank, voorzitter. Dank aan de heer Haveman voor het feit dat hij hier vandaag gekomen
is. Ik ben heel blij dat we deze bijeenkomst houden. Zoals bekend maak ik me al tijden
zorgen over de impact van socialmediabedrijven. Sinds de Facebookfiles van Haugen
is dat er niet beter op geworden. Ik denk ook dat we daar met elkaar even goed naar
moeten kijken vandaag. Hoe werkt Facebook polarisatie eventueel in de hand en wat
doet Facebook eraan om dat weer te beperken?
Even over de voorbereidingsgroep. We willen in duo's een aantal onderwerpen behandelen,
waarover we vragen hebben voorbereid. Het eerste duo is collega Van Weerdenburg en
ik. Wij willen vooral stilstaan bij wat nou die impact op de samenleving is en wat
uw beeld daarvan is.
Mevrouw Van Weerdenburg (PVV):
Meneer Haveman, er is natuurlijk best wel een golf van verontwaardiging ontstaan in
de samenleving: uw platform zou onrust en polarisatie in de maatschappij aanwakkeren.
Wij proberen hier dus uit te vinden of dat inderdaad zo is en of u inderdaad – zoals
Facebookklokkenluider, mevrouw Haugen, die we gisteren gesproken hebben, zegt – extreme
uitingen en extreme meningen een megafoon in handen geeft. De vraag is dus: klopt
dat? Of is uw platform slechts een weerspiegeling van de samenleving? De wetenschappers
die we gister aan tafel hadden, hebben gezegd: er is weinig tot geen wetenschappelijk
bewijs dat er een causaliteit is tussen sociale media en polarisatie in de samenleving,
maar dat komt ook omdat we eigenlijk geen goeie data hebben om te onderzoeken. Dat
is ook wat mevrouw Haugen ons meegaf: geef maar eens aan waarom jullie niet meer data
beschikbaar kunnen stellen, zodat we inderdaad kunnen zien dat waar we wellicht bang
voor zijn, er helemaal niet is.
De voorzitter:
Meneer Haveman, uw reactie.
De heer Haveman:
Dank voor deze vragen; ik denk dat een meervoud wel op z'n plek is. Ik probeer alle
losse elementen een plek te geven in mijn antwoord, maar laat het me vooral weten
als ik onverhoopt een element vergeet in mijn beantwoording. Ik denk dat ik in mijn
introductie genoeg heb stilgestaan bij het belang van waardevolle, positieve content
voor ons platform. Ik heb geprobeerd duidelijk te maken dat er geen belang is voor
ons om mensen heftige of extreme content voor te schotelen, omdat dit mensen enkel
afschrikt en in ieder geval op de langere termijn zorgt dat mensen niet meer terugkomen.
Als mensen boos, opgewonden of verdrietig worden, is dat een negatieve ervaring. Negatieve
ervaringen leiden ertoe dat mensen niet terugkomen naar onze platformen en dat we
helemaal geen business hebben. Datzelfde geldt voor de andere kant, als je vanuit
het commerciële model, het businessmodel redeneert. Ik spreek regelmatig met grote
adverteerders in Nederland. Zij geven dezelfde signalen. Zij doen dat ook regelmatig
publiek. Zij willen niet dat hun merken, hun advertenties naast kwalijke, kwetsende,
haatdragende of opruiende inhoud komen. Daar hebben ze groot gelijk in.
Dan een paar stapjes naar achter als het gaat om polarisatie. Ik denk dat we allemaal
zien dat de maatschappij verdeeld is. Dat geldt in sommige landen misschien nog wel
meer dan in Nederland. Er is sprake van verdeeldheid. Dat vindt logischerwijs ook
zijn weerspiegeling in het online discours. Wij zijn deel van de onlinewereld. De
gesprekken die op onze platformen plaatsvinden, zijn veelal positief en prettig. Mensen
delen positief nieuws met elkaar of vinden elkaar rond gemeenschappelijke zaken, uiteenlopend
van tuinieren en hardlopen tot bakken en recente babyfoto's. Maar ja, daar vinden
ook onprettige gesprekken plaats. Dat is niet meer dan logisch, maar het betekent
wel dat wij een heel grote verantwoordelijkheid hebben om daar streng tegen op te
treden. Daarom hebben we richtlijnen voor de community, onze community standards,
die een grens trekken tussen wat wel en niet is toegestaan. Expliciet oproepen tot
haat, discriminatie, pesten en misinformatie delen die tot geweld zou kunnen leiden,
zijn verboden. Op het moment dat wij die zaken op het spoor komen, dan wel doordat
mensen die aan ons rapporteren, dan wel doordat we ze zelf vinden door slimme technologie,
zullen we die neerhalen. Wij remmen ook content af op het moment dat die een negatieve
invloed op de ervaring, en daarmee dus ook op de maatschappij, zou kunnen hebben.
Dat doen wij ook omdat het in ons belang is.
Zal ik doorgaan over data delen? Want ik zie dat mevrouw Van Ginneken misschien een
vraag wil stellen.
Mevrouw Van Ginneken (D66):
Dat heeft u goed gezien. In de introductie heb ik het net niet zo expliciet aangestipt,
maar we hadden met elkaar afgesproken dat wij als vragenstellers eventueel zouden
interrumperen, om een beetje vaart en verdieping in het gesprek te kunnen krijgen.
U heeft goed gezien dat ik dat van plan was te doen.
De heer Haveman:
Ik ben hier ook om uw vragen te beantwoorden.
Mevrouw Van Ginneken (D66):
Jazeker, en daar ben ik heel blij mee. U schetst dat u een platform wil dat iedereen
een prettige ervaring biedt. Maar tegelijkertijd waarschuwen de AIVD en de NCTV voor
de radicalisering van jongeren op socialmediaplatforms, ook uw platform. We weten
uit publicaties in The Wall Street Journal dat meer dan 60% van de mensen die lid
worden van een extremistische groep op Facebook, dat doen nadat zij daartoe een aanbeveling
hebben gekregen van jullie rankingalgoritme. Er komt daarom een vraag bij me op. U
beschrijft allerlei maatregelen die u neemt om effecten te dempen, maar tegelijkertijd
zien we dat de kern van het platform die negatieve effecten juist heel erg in de hand
werkt. Frances Haugen schetst daar heel veel voorbeelden van in de Facebook Files
die ze bekend heeft gemaakt. Voor mij voelt dit dus een beetje dubbel. Mijn vraag
is: erkent Facebook de rol die het heeft in het versterken van radicalisering en polarisatie,
of niet?
De heer Haveman:
Nee, ik herken niet het soms geschetste beeld dat sociale media als die van Meta een
versterkend effect zouden hebben op radicalisering. Er zijn net een aantal dingen
gewisseld over de samenhang tussen polarisatie en sociale media. Er werd ook verwezen
naar een aantal quotes van gisteren. Ik zou het nog wat sterker willen aanzetten:
het verband dat wordt gesuggereerd dat sociale media leiden tot polarisatie – ik heb
het mevrouw Van Ginneken een aantal keer horen zeggen – is niet wat de wetenschap
zegt. Ik heb daar ook nog wat zaken op nageplozen. Ik zag ook de positionpaper van
Rathenau, waarin ook weer wordt verwezen naar wetenschappelijke bronnen die dit verband
niet zien. Ik denk dat er allerlei voorbeelden zijn van landen waar de polarisatie
allang toenam voor er sociale media waren, laat staan Facebook, en dat er ook heel
veel landen zijn waar Facebook enorm groeit, maar de polarisatie het afgelopen decennium
aan het afnemen is geweest. Ik vind het dus moeilijk dat daar zo'n duidelijk verband
tussen wordt gelegd. Er is heel veel wetenschappelijk onderzoek gedaan, ook vanuit
Nederland. Ik kwam een tijdje terug ook nog een artikel tegen van een Zweedse dame,
Maria Nordbrandt. Zij heeft ook op basis van Nederlandse data onderzoek gedaan en
vond juist een soort van omgekeerd verband: toegenomen polarisatie leidt tot meer
socialemediagebruik. Het is dus belangrijk om echt wel te bekijken wat het onderzoek
zegt en wat de effecten zijn.
Mevrouw Van Weerdenburg (PVV):
Het klopt wat de heer Haveman zegt. Aan de andere kant: de onderzoekers van het Rathenau
constateren tegelijkertijd dat er ook gewoon heel erg weinig data is om te onderzoeken
of die causaliteit er is. Kan het zijn dat die door de wetenschap tot nu toe niet
of amper gevonden is omdat er gewoon te weinig data is, en zou Meta niet meer data
kunnen verstrekken?
De heer Haveman:
Dat zijn twee losse vragen. Ik denk dat het aan de wetenschappers is om te concluderen
of het logisch is dat die data er niet zijn en of die verbanden daarmee niet te beoordelen
zijn. Ik kan me voorstellen dat het voor dat soort macroprocessen niet per se nodig
is, maar goed, ik ben geen wetenschapper. Dat laat ik dus aan het Rathenau. Dan datadelen.
De interactie met de wetenschap is heel belangrijk. Wij proberen heel transparant
te zijn in de dingen die wij doen op ons platform, bijvoorbeeld door mensen mee te
nemen in wat ons rankingalgoritme doet en door te laten zien waarom ze bepaalde content
op bepaalde momenten zien. Je kunt op Facebook bij elk bericht klikken op «waarom
zie ik dit bericht?» Dan krijg je iets van duiding over waarom je dat nu daar ziet.
Daarnaast hebben wij elk kwartaal een rapportage ...
Mevrouw Van Ginneken (D66):
Mag ik u heel even onderbreken, meneer Haveman?
De heer Haveman:
Natuurlijk.
Mevrouw Van Ginneken (D66):
U schetst allerlei maatregelen die u neemt om effecten te beperken, maar ik ben toch
nog een beetje blijven hangen bij de onthutsende conclusie dat u denkt dat uw platform
geen actieve rol speelt in radicalisering of polarisatie. Nogmaals, als 60% van de
mensen die lid worden van een extremistische Facebookgroep dat doet na een actieve
aanbeveling van het platform zelf, dan is dat toch een niet te ontkennen effect? 80%
van de desinformatie die rondzwerft op het platform, komt vanwege het rankingalgoritme
dat u net beschreef, terecht bij de 4% van de mensen die daar het meest kwetsbaar
voor is. Dat is een groep die ook het meest geneigd is om tot acties in de fysieke
ruimte over te gaan. U kunt dan toch niet ontkennen dat u, naast alles wat u probeert
om het te beperken, ook een negatieve impact heeft op het gebied van polarisatie in
onze samenleving?
De heer Haveman:
Ik ken de cijfers niet die mevrouw Van Ginneken aanhaalt, dus ik kan niet gelijk zeggen
of het 5%, 10% of 3% moet zijn en of het lager of hoger is. Ik ben wel bekend met
de maatregelen die wij nemen. Ik vertaal het even naar de Nederlandse situatie. Nederland
heeft een turbulent jaar gehad. Een van de dingen die ik mij vanuit mijn rol bij Meta
goed herinner, waren de avondklokrellen van begin vorig jaar, of hoe je ze ook zou
willen noemen. Dat was een moment waarop wij vanuit Meta heel waakzaam waren over
wat er op ons platform plaatsvindt. Wij wilden en willen daar namelijk geen negatieve
rol in spelen. Dan zijn we waakzaam en proberen we met de relevante teams alert te
zijn ... Is het goed dat ik even mijn zin afmaak?
De voorzitter:
Als u uw laatste zin echt even afmaakt, maar probeer ...
De heer Haveman:
Toen heb ik ook zelf een aantal berichten gezien waarin een aantal van de oproerkaaiers
zelf zei: «Jongens, we moeten niet op Facebook zitten, want hier worden we continu
afgegooid. Kom mee naar deze Telegramgroep, want daar kunnen we wel open en bloot
communiceren.» Ik denk dus dat we wel onderscheid moeten maken tussen verschillende
soorten sociale media. In ieder geval probeert ons platform een vijandige omgeving
te creëren voor oproer en polarisatie, omdat we dat op ons platform gewoon niet willen
hebben.
Mevrouw Van Ginneken (D66):
Het valt me heel erg op dat u zegt: we hebben rondom rellen in Nederland de boel een
beetje in de gaten gehouden om te kijken of het niet uit de hand zou lopen. U heeft
dat ook eerder gedaan rondom de bestorming van het Capitool in Amerika. Daar heeft
u de zogenoemde breakglassfunctie gebruikt, zoals die in de wetenschap heet. Als de
polarisatie en de snelheid waarmee extreme content gedeeld wordt te gortig worden,
heeft u kennelijk een rem, een knop waaraan u kunt draaien: doe het allemaal maar
een tandje minder want anders gaat het uit de hand lopen. Dat vind ik een heel ongemakkelijk
idee. Ik probeer me voor te stellen welke vergadering er dan plaatsvindt bij Facebook
waarin mensen met elkaar uitwisselen dat er zo veel maatschappelijke onrust is dat
er aan de knop gedraaid moet worden, omdat het bepaalde effecten heeft op het gebruik
van de platformen en het verdienmodel. Waarom staat die knop niet altijd op het maximaal
dempen van polarisatie?
De heer Haveman:
Ik kan niet helemaal mee in het beeld dat mevrouw Van Ginneken nu schetst. Wij proberen
altijd een veilig platform te zijn en altijd zaken als polarisatie tegen te gaan.
Tegelijkertijd zien we dat er in de maatschappij processen gaande zijn. Ik denk dat
het voorbeeld dat ik uit Nederland aanhaalde, een proces is dat autonoom verloopt.
Wij kijken of we als platform daar een verantwoorde rol in spelen. Wij doen wat we
kunnen om het tegen te gaan, en dat doen wij vervolgens.
De voorzitter:
Ik denk dat we overgaan naar het volgende blokje. Mevrouw Rajkowski.
Mevrouw Rajkowski (VVD):
Dank, voorzitter. Ik wil specifiek doorgaan op Facebookgroepen. Facebookgroepen worden
steeds populairder. Er zitten heel veel mensen in. Ze hebben ook zeker heel veel voordelen.
Dat wil ik nog even hier gezegd hebben. Lotgenoten kunnen elkaar vinden en in gesprek
gaan over allerlei onderwerpen. Maar we zien ook de negatieve kanten ervan. Er kunnen
heel veel mensen in één groep zitten. Zo'n groep kan functioneren als een soort echokamer,
waardoor iedereen die erin zit denkt: wat ik vind, vindt eigenlijk iedereen en hier
moeten we toch echt wat tegen gaan doen. Ik heb als gemeenteraadslid in Utrecht gezien
hoe snel het kan gaan als sociale media gebruikt worden, niet alleen Facebook maar
ook andere platformen, om bijvoorbeeld rellen te organiseren. Zo is Kanaleneiland
in Utrecht op een gegeven moment door 300 jongeren op z'n kop gezet – vooral door
jongeren van buiten Utrecht, wil ik er nog even bij gezegd hebben. Daar zit onze zorg:
wat doen dit soort Facebookgroepen en wat betekent dat voor de onrust op straat? Experts
en deskundigen zeggen ook dat groepsberichten geprioriteerd worden in een Facebooktijdlijn
ten opzichte van berichten van buiten de groep. Je kan tot 2.200 mensen per dag uitnodigen
in zo'n groep, dus je hebt zo een bereik van een half miljoen mensen. Stel dat ik
ben aangesteld om een Russische desinformatiecampagne op te zetten, dat ik daarvoor
een team heb en dat ik snel succesvol wil zijn. Klopt het dan dat het voor mij slimmer
zou zijn om een Facebookgroep aan te maken en daar mijn desinformatie in te verspreiden,
dan dat ik een-op-een berichten naar allemaal mensen ga versturen.
De heer Haveman:
Even denken. Het is een als-dansituatie. Ik denk dat je theoretisch gezien sneller
berichten verspreidt in een groep dan een-op-een. Maar ook als je tien mensen tegelijk
aanspreekt, gaat dat sneller dan wanneer je één mens tegelijk persoonlijk aanspreekt.
Dat betekent dus ook dat wij een grotere verantwoordelijkheid hebben. Specifiek als
het bijvoorbeeld gaat om buitenlandse inmenging zijn we heel strikt. We hebben daar
aanvullende maatregelen en aanvullende teams voor, die specifiek boven op wat wij
coordinated inauthentic behavior noemen, zitten. Tegen dat gecoördineerde inauthentieke
gedrag hebben wij tools en teams gemaakt, die kunnen zien of dat plaatsvindt. Het
gaat daarbij om derden uit een ander land, dan wel hetzelfde land, die zich voordoen
als specifieke groepen en die informatie verspreiden, die mogelijk zelfs correct is
maar in ieder geval opruiend zou kunnen zijn. Daarop kunnen wij dan ingrijpen. Dat
zijn zaken die gebeuren. Wij proberen daar ook publiek over te rapporten. Dat doen
wij elke maand in ons Coordinated Inauthentic Behavior Report. Elke maand publiceren
we daarin welke varianten van buitenlandse inmenging wij neerhalen.
Mevrouw Rajkowski (VVD):
Dank, meneer Haveman. Ik weet dat, want ik heb veel van jullie rapporten gezien en
jullie communiceren daar veel over. Mijn vraag ging over de prioritering. Klopt het
dat berichten uit groepen voorrang krijgen in de rangorde in een tijdlijn? Speelt
die prioritering er dus een rol in? Ik heb van experts en deskundigen begrepen dat
60% van de berichten die wij in onze Facebooktijdlijn zien, uit groepen afkomstig
is, vanwege onder andere de prioritering.
De voorzitter:
Meneer Haveman, klopt dat?
De heer Haveman:
Nu snap ik uw vraag beter, dank u wel. Dat is natuurlijk persoonlijk. Iedereen heeft
een gepersonaliseerde nieuwsfeed. Als jij besluit om een bepaalde groep te volgen,
dan krijg je berichten van die groep te zien. Als je veel met die groep interacteert,
dan neemt de waarschijnlijkheid toe, denk ik, dat berichten van die groep hoger in
jouw tijdlijnen komen. Als je veel interacteert met familie of vrienden, zullen die
berichten ook hoger in jouw tijdlijnen komen. Maar goed, dat zijn allemaal losse elementen
die bijdragen aan die waarschijnlijkheid. Ik kan dus niet zeggen: het is voor altijd
en voor iedereen zo. Dat is natuurlijk het hele punt van personalisatie.
Wat ik ook belangrijk vind om te noemen, is dat we bijvoorbeeld ook de aftrekmechanismen
hebben. Op het moment dat content wordt gedeeld die niet voldoet aan onze richtlijnen
of een optelling is van onze degradatierichtlijnen, dan komt die alsnog weer lager
te staan. Als een groep bijvoorbeeld meerdere keren misinformatie plaatst of informatie
plaatst die door onze factchecker is geclassificeerd als misinformatie, dan zal die
groep blijvend aftrek krijgen. Er zijn dus mechanismen waardoor je inderdaad van groepen
meer ziet, maar er zijn ook mechanismen waardoor je van groepen minder ziet.
Mevrouw Van Ginneken (D66):
Meneer Haveman, mag ik u heel even onderbreken, want het gebeurt me weer dat mij dat
triggert. U spreekt over «aftrek». U noemde dat ook in uw introductie. Maar we weten
ook dat naast die aftrek, een reactie op een post in de vorm van een duimpje omhoog
vijf keer minder snel verspreid wordt dan een boze reactie op een post, dus een reactie
met een roodgloeiend emoticon. Frances Haugen heeft dat hier gisteren nog nadrukkelijk
uitgesproken, maar we hadden het al kunnen lezen in de Facebook Files die in oktober
openbaar werden gemaakt. Dat vind ik bijna schizofreen aan het verhaal dat ik hier
steeds hoor. In de kern werkt het platform polarisatie in de hand, maar daarnaast
heeft u allerlei maatregelen, die u ook uitgebreid wil beschrijven, die dat effect
moeten dempen. Dat voelt voor mij alsof u zegt «o, ik heb hier een doosje pleisters»,
terwijl wij denken «er is een slagaderlijke bloeding». Die passen niet op elkaar.
Gisteren hebben wij het ook aan de experts gevraagd: kan de kern van zo'n platform,
kan de kern van een Facebookplatform, niet fundamenteel anders ingericht worden zodat
het neutraal is en niet alleen de extreme content voorrang geeft, terwijl we dan toch
nog een gezellig socialmediaplatform hebben? Het antwoord was: ja. Frances Haugen
heeft een aantal concrete, specifieke technieken genoemd waar jullie voor hadden kunnen
kiezen. Jullie weten al jaren dat de keuzes die jullie gemaakt hebben in de techniek
en het verdienmodel, deze negatieve effecten in de samenleving in de hand werken.
En wij weten het, dankzij Frances Haugen, sinds oktober ook. De essentiële vraag die
wat mij betreft hier vandaag op tafel ligt, is: waarom kiest Facebook ervoor om dat
verdienmodel en de werking van het platform overeind te houden, wetende dat Facebook
deze negatieve effecten in de samenleving kan wegnemen door andere technische en commerciële
keuzes te maken?
De voorzitter:
Meneer Haveman, dat was een lange inleiding, met een goed antwoord van u?
De heer Haveman:
Nou ja, ik ga niet mee in die karakterschets. Ik ga niet mee in de suggestie dat de
mechanismen bij ons zo werken dat ze die effecten hebben. Wij zijn continu bezig om
algoritmen en andere mechanismes zo in te richten dat mensen een positieve, waardevolle
ervaring hebben. En dat moeten we wel doen, want anders zouden we binnen no time out
of business zijn. Dan zouden we niet meer bestaan als bedrijf. Ik snap dat u specifieke
zorgen heeft, maar de karakterschets dat de mechanismen helemaal verkeerd zouden staan,
herken ik niet.
Mevrouw Van Ginneken (D66):
Zegt u dan dat mevrouw Haugen fout zit? Zegt u dat zij liegt?
De heer Haveman:
Ik heb niet de specifieke quote voor ogen waar u naar verwijst. Ik denk dat allerlei
elementen in ons rankingmechanisme een rol spelen. We proberen dat continu zo bij
te stellen dat mensen een positieve ervaring hebben. Maar misschien mag ik het iets
concreter maken met, weer, een voorbeeld, op het gevaar af dat het eventjes tijd kost.
Er zijn natuurlijk heel veel reacties mogelijk op Facebookberichten: je hebt commentaar,
je hebt inderdaad de like en je hebt een aantal verschillende emoticons, emoji's,
waarmee je kunt reageren. Ik kan me nog herinneren dat ik een paar jaar terug op een
gegeven moment een ngo aan de telefoon had. Zij zeiden: «We plaatsen regelmatig nieuwsberichten
uit andere delen van de wereld die best wel heel verdrietig en schokkend zijn. Mensen
plaatsen daar over het algemeen negatieve emoji's bij, want het zijn ook gewoon nare
dingen. Maar we willen niet dat we nou overal heel laag in tijdlijnen komen, want
het is juist van belang dat de mensen dit zien.» Nou ja, dat is zo'n voorbeeld dat
misschien minder straightforward is dan wat mevrouw Van Ginneken hier aanhaalt, maar
dat ook aangeeft dat heel veel dingen in balans gebracht moeten worden. Voor ons is
het dan de puzzel om ervoor te zorgen dat waardevolle berichten bovenaan komen. En
daar zullen we elke dag naar blijven streven.
De voorzitter:
Dank. Ik ga eerst naar mevrouw Van Weerdenburg, dan naar mevrouw Rajkowski en dan
naar mevrouw Koekkoek.
Mevrouw Van Weerdenburg (PVV):
Ik ga hier misschien even tussenin zitten, want er lijkt een misverstand te zijn of
een difference of opinion. U zegt: wij nemen vooral als maatstaf dat mensen een prettige
ervaring hebben op ons platform en zolang ze blijven komen, is dat zo. Kan het zo
zijn dat heel veel mensen uw platform juist gebruiken om terug te rage-tweeten of
om...? Nou ja, om wat mevrouw Haugen rage-clicking noemde. Mensen willen dan gewoon
eventjes tien minuten schreeuwen op Facebook, dan zij ze het kwijt en gaan ze lekker
weer door met de dingen die ze voor die dag gepland hebben. Kan het zijn dat mensen
uw platform juist daarvoor gebruiken en dat fijn vinden? Kan het dus zijn dat ze daardoor
een prettige ervaring hebben? Zo ja, dan is dat misschien ook wel een soort goede
ventielfunctie.
De heer Haveman:
Nee, bij mijn beste weten is het over-, over-, over-, overgrote deel van de content
op Facebook prettige, vriendelijke, gezellige, warme, waardevolle content.
Mevrouw Rajkowski (VVD):
Dank voor de beantwoording. Mijn levenshouding is in die zin: ik geloof er niet in
dat bij Facebook allemaal mensen werken die denken «het is negen uur, de dag begint
en wij gaan even lekker zorgen dat er overal gepolariseerd wordt», et cetera. Dus
op die manier kijk ik er ook niet naar. Ik denk niet dat er vervelende mensen bij
Facebook werken die dit graag willen veroorzaken in landen, et cetera. Maar ik zie
wel hoe snel het bedrijf is gegroeid en welke rol bedrijven als Facebook uiteindelijk
spelen in onze samenleving. Het is gewoon de openbare publieke ruimte. Dat is het
gewoon! En daar komt gewoon een bepaalde verantwoordelijkheid bij kijken.
In het begin hoorde ik u zeggen: expliciete oproepen tot haat willen we niet en die
halen we dan ook neer waar dat kan. Gisteren gaf Frances Haugen aan in het gesprek
met ons: oké, maar onze technieken, onze algoritmen en onze AI zijn ook überhaupt
nog niet sterk genoeg om dit allemaal goed op te kunnen sporen, ook omdat taal gewoon
heel lastig te begrijpen is. Soms zijn het hele, hele fijne dingen en zover is die
techniek nog niet. Daar gaat mijn vraag over. Aan de ene kant denk ik: oké, als ik
een advertentie krijg, lukt het om die supergepersonaliseerd weer te geven. Dus ik
krijg bijvoorbeeld schoenen in beeld en dan denk ik: hé, ik wist nog helemaal niet
dat ik die wilde en dat ik die nodig had. Dat is dan weer fijn, maar aan de andere
kant lukt het dan weer niet om hele, hele zware dingen als datingfraude en orgaanhandel
in andere landen ervanaf te halen. Dus mijn vraag is: zijn jullie dan te snel gegroeid?
Doen jullie wel genoeg? Of kunnen jullie het gewoon nog niet?
De heer Haveman:
Dank voor deze vraag. Misschien is het allereerst goed om te beginnen met de opmerking
dat ik dat stukje van mevrouw Haugen ook gezien heb. Het percentage dat ze noemde
over onze AI – onze artificial intelligence, de kunstmatige intelligentie die achter
hatespeech aan zit – sloeg echt specifiek op hatespeech die louter en alleen door
AI was gevonden en neergehaald. Dat zijn gelukkig niet al onze systemen, want we hebben
40.000 mensen aan de achterkant die werken aan veiligheid en beveiliging. Als het
specifiek om hatespeech gaat, is het verder heel belangrijk om toch ook niet alleen
te kijken naar de output maar ook naar de outcome. Wat is de situatie waar je bent?
Ik noemde in mijn inleiding heel kort wat wij meten met prevalentie. Dus hoeveel van
de eventueel kwalijke content wordt alsnog gezien op je platform, ondanks al je maatregelen?
Dat is immers wat je wilt weten en dat is misschien ook nog een vervolgantwoord op
de eerdere vraag van mevrouw Van Weerdenburg over wat mensen eigenlijk zien op het
platform en wat er nou echt gebeurt op ons platform. In onze kwartaalrapportages van
het Community Standards Enforcement Report geven we ook prevalentiegetallen. Daarvoor
doen we steekproeven op ons eigen platform van bepaalde categorieën. Dat zijn bijvoorbeeld
hatespeech, terrorismecontent en onlinekindermisbruik; het gaat dan om dit soort verschrikkelijke
zaken.
Over hatespeech, zeer belangrijk in deze context, hebben we in het derde kwartaal
van 2021 gerapporteerd dat de prevalentie in een halfjaar is gehalveerd naar 0,03%.
Van de 10.000 berichten op Facebook die mensen zien, bevatten er dus drie mogelijk
hatespeech. Het gaat dan dus niet om de berichten die er zijn, maar om de berichten
die mensen daadwerkelijk zien, de views. Een halfjaar eerder waren dat er nog zes
en we hebben dat door middel van AI en door zelf scherp te modereren, kunnen halveren.
Volgens mij kunnen we daaraan zien dat er zeker positieve vooruitgang is.
De voorzitter:
Dank. Dan de laatste vraag in het blok, mevrouw Koekkoek.
Mevrouw Koekkoek (Volt):
Ik heb heel goed geluisterd naar de eerdere vragen en uitleggen. Waar we nu mee worstelen,
is volgens mij niet nieuw. Al jarenlang zijn er producten die anders bedoeld zijn
en toch op een bepaalde manier impact hebben op de samenleving. Ik denk bijvoorbeeld
aan de supermarkt. De meerderheid van wat er ligt in de supermarkt, is hartstikke
gezond en goed voor je en heb je nodig om te overleven, maar we weten ook dat als
er snoep of sigaretten bij de kassa liggen, mensen die eerder kopen, waar de samenleving
last van heeft en wat een impact heeft. Hetzelfde verhaal geldt hiervoor. Het merendeel
is allemaal hartstikke aardig maar dat geldt absoluut niet voor een klein percentage,
dat wel impact heeft op de samenleving. Als het bij die supermarkt misgaat, hebben
we ook nog de politie en de samenleving die er iets van vinden en een overheid die
kan reguleren, bijvoorbeeld door snoep in minder kleurrijke verpakkingen ergens anders
te leggen. Dat is het geval van Meta echter niet zo. Ik heb goed naar uw inleiding
geluisterd. Experts worden geconsulteerd door Meta. De beveiliging zit bij Meta. Mijn
vraag is de volgende. Vindt u ook niet dat gezien de impact op de samenleving, bepaalde
informatie die nodig is om wat betreft de beveiliging dat kleine stukje eruit te halen,
juist bij de samenleving zou moeten liggen? Zouden we bijvoorbeeld niet de code voor
de aanbevelingsalgoritmes openbaar moeten maken, zodat de samenleving die uiteindelijk
met de impact wordt geconfronteerd, ook mee kan kijken en mee kan beveiligen?
De heer Haveman:
Dank voor deze vraag, mevrouw Koekkoek. Er spelen heel veel algoritmes een rol om
een veilige situatie op ons platform te creëren. Er zijn algoritmes die kunnen helpen
om een kwalijke content weg te halen of die lager te zetten en om ook de ranking te
bepalen. Dat zijn optelsommen, waarvan ik niet weet of dat makkelijk is om dat publiek
neer te zetten en hoe dat het verder brengt.
Mevrouw Koekkoek (Volt):
Voordat we het te breed gaan trekken; ik blijf even bij de analogie met de supermarkt
omdat die volgens mij makkelijk te volgen is. Ik zeg ook niet dat je alle marketingstrategieën
openbaar moet maken. Het gaat mij om het kleinere percentage dat niet opgespoord kan
worden en waar we geen grip op hebben, maar dat zeker wel impact heeft op de democratische
rechtsorde in onze samenleving. Zouden we dat niet openbaar moeten maken of desnoods
alleen moeten delen met wetenschappers en onderzoekers, in ieder geval met externen?
Want op dit moment vindt de enige check die gedaan wordt, intern plaats. Dus degene
die ervan profiteert, checkt ook. En dat doen we normaliter eigenlijk nooit in de
samenleving.
De heer Haveman:
Dat delen van data met wetenschappers is een vrij fundamenteel punt. Daar zijn we
hard mee bezig. We kennen FORT, Facebook Open Resource and Transparency, via welke
we een aantal datasets nu al ter beschikking stellen als het gaat om democratie en
verkiezingen. Dat betreft ook veel initiatieven met wetenschappers in Amerika. Het
probleem met het nu al delen van data is dat de huidige GDPR/AVG, de combinatie van
hoe toezichthouders zijn geconstelleerd, helaas nu niet de juridische duidelijkheid
biedt aan ons om die data compliant, consistent en schaalbaar te delen, omdat het
persoonsgegevens zijn. Dat is echt een fundamenteler probleem. We zien dit belang
wel en we willen dit ook. Daarom zijn we ook bezig in een werkgroep van EDMO, de European
Digital Media Observatory, en academici om te kijken of we binnen GDPR tot een artikel 40-code
kunnen komen om een framework te creëren om wel eerlijk, doordacht en ethisch een
systeem te hebben waarbij we die data actief met academici kunnen delen. De DSA kan
daar ook een heel goede rol in spelen door de wettelijke grondslag te organiseren.
Maar op het moment is de wet niet goed georganiseerd om de data te delen op een manier
zoals we dat graag zouden willen doen om het onderzoek mogelijk te maken. Tegelijkertijd
gebeurt er heel veel onderzoek naar ons en brengen we zelf ook peerreviewed papers
naar buiten die wel die double check kennen, maar dit is een fundamenteel issue waar
we zelf hard mee bezig zijn maar waarbij ook echt hulp van de politiek nodig is.
De voorzitter:
Tot slot zou ik zelf ook nog een vraag willen stellen. Ik merk dat er een groot verschil
is tussen enerzijds hoe u aankijkt tegen alles wat uw organisatie wil doen om de veiligheid
van de samenleving te vergroten en de negatieve invloed te beperken, en anderzijds
de signalen die wij hebben. Dat is natuurkijk heel moeilijk vast te stellen. Zou u
als organisatie bereid zijn om mee te werken op het moment dat er een commissie wordt
ingesteld die maximaal toegang heeft tot uw organisaties om te kijken hoe dat echt
werkt?
De heer Haveman:
Dan moet ik eerst de exacte implicaties weten, omdat wij in heel veel landen opereren
en we ook te maken hebben met de wetgeving in die landen. Er zijn heel veel beelden
over ons platform. Ik hoorde gisteren nog een aantal beelden, ook wel heftige beelden
over hoe slecht Instagram voor de jeugd zou zijn. Als je het gesprek daarover voert
met wetenschappers ... Nederland heeft ook een aantal echt vermaarde wetenschappers
als het gaat over de ontwikkeling van jeugd. Als je het gesprek daarover voert met
wetenschappers in Amsterdam en Rotterdam, dan blijkt dat beeld echt anders en een
heel stuk positiever te zijn.
De voorzitter:
Maar dan zou het toch goed zijn als een commissie van deskundigen maximale transparantie
krijgt van Meta en Facebook? Dan zou de tweede oproep zijn om niet alleen de data
te delen die u wilt delen maar ook de data waarom wetenschappers vragen. Bent u bereid
om daaraan mee te werken?
De heer Haveman:
Ik zei net al dat we niet zomaar persoonsgegevens kunnen delen om goede redenen, om
goede wettelijke redenen, en dat we samen met de wetenschap bezig zijn om die kaders
daarvoor te maken. Daar ben ik persoonlijk heel blij mee, want is het is superbelangrijk
om op die manier dat gesprek te kunnen voeren. Vervolgens denk ik dat een bredere
dialoog over wat er gaande is in de samenleving, welke rol sociale media daarin spelen
en het daarnaar onderzoek doen, zeer waardevol is.
De voorzitter:
Meneer Haveman, dank voor uw statement en uw uitgebreide beantwoording. Hiermee zijn
we aan het eind gekomen van het eerste blok. We schorsen tot 11.00 uur en dan gaan
we na de schorsing verder met het tweede blok over Google.
De vergadering wordt van 10.46 uur tot 11.00 uur geschorst.
Blok 2
Gesprek met:
– Marco Pancini, Google
De voorzitter:
Aan de orde is de hoorzitting over de werking van socialemediaplatforms en maatschappelijke
organisaties als het gaat om polarisatie, radicalisering, ontwrichting en andere onwenselijke
impact op democratie en de rechtsstaat. We zijn aangekomen bij het tweede blok. Ik
stel de Kamerleden aan u voor. Mevrouw Van Ginneken van D66, mevrouw Van Weerdenburg
van de PVV, mevrouw Rajkowski van de VVD en mevrouw Koekkoek van Volt. In het bijzonder
heet ik Marco Pancini welkom. Ik ga over naar het Engels nu.
Good morning to Mr Pancini, who joins us via a video connection. Thank you for joining
us in this hearing and for the opportunity to discuss the role of social media platforms.
Before we start, I would like to introduce the Members of Parliament to you. Ms Van
Ginneken from Democrats 66, Ms Van Weerdenburg from the Party for Freedom, Ms Rajkowski
from the People's Party for Freedom and Democracy and Ms Koekkoek from the party European
Volt. Thank you again, Mr Pancini. I would like to start by giving you the opportunity
for an opening statement of five minutes. Afterwards, I would like to ask my fellow
members of Parliament to ask you several questions and for you to answer.
Mr Pancini, the floor is yours.
De heer Pancini:
Thank you, Mr Chairman, for having me here today. Dear members of the Digital Affairs
Committee, I am honoured to be here. My name is Marco Pancini and I lead the YouTube
Government Affairs and Public Policy for Europe. I am honoured to be here with you
today and to discuss these important topics.
Over the past eighteen months, we have all used digital services more than ever before.
Over half of the world is now online, with our use of technology leaping forward five
to ten years in as many months. At YouTube, our mission is to give everyone a voice
and show them the world. We believe that everyone deserves to have a voice and that
the world is a better place when we listen, share and build the community through
our stories. In support of this mission, four freedoms comprise the foundation of
our philosophy.
Firstly: freedom of expression. We believe people should be able to speak freely,
share opinions, and foster an open dialogue. We believe that creative freedom leads
to new voices, formats and possibilities. Secondly: freedom of information. We believe
everyone should have easy open access to information and that video is a powerful
force for education, building understanding and documenting world events, big and
small. Thirdly: freedom of opportunity. We believe everyone should have a chance to
be discovered, build a business and succeed on their own terms, and that people, not
gatekeepers, decide what is popular. And lastly: freedom to belong. We believe everyone
should be able to find communities of support, break down barriers, transcend borders
and come together around shared interests and passions.
Over the years, we have seen more and more people come to YouTube to share their experiences
and understand their world more deeply. This is especially true when it comes to learning
new skills or participating in civic engagement and developing informed opinions about
current events. With so many users around the world that are looking at YouTube for
information, we have a responsibility to provide a quality experience and to support
informed citizenry. Over the past several years, responsibility has been a critical
area of investment across our company. We have focused extensively on developing policies
and building product solutions with regard to these possibilities, while preserving
the opportunity of an open platform. Our approach to responsibility consists of four
pillars. The first pillar: we remove content that violates our policies as quickly
as possible. We set the responsible rules for each of our products and services to
take action against content and behaviour that infringe on them. We also comply with
legal obligations wherever we are operating, requiring the removal of content. All
our activities in this area happen through a combination of man and machine. We have
machines to manage the volume. We are talking about more than 500 hours uploaded every
hour. And we have humans for the context. Users can report videos that they believe
violate the guidelines.
Removal of content may occur for two reasons. It violates the law or it violates our
rules of law, our internal committee guidelines that we have for every product or
service. Our policies are not set in stone. We update them as we see fit, as the world
around us is changing and developing. For instance, no one saw the pandemic coming.
We had to update our policies around covid and vaccines as the situation developed.
Among others, we considered the following types of risk when considering which safeguards
and rules may be needed for each product and service. Harmful and dangerous behaviour,
hateful content, threats, harassment and bullying, violent or graphic content, sexually
explicit content, spam, abuse, unsafe practices, and impersonation and misrepresentation,
what we call misinformation.
To help us identify and manage gaps in our existing policies, we also consider access
from all over the world, including the European countries, user feedback and regulatory
guidance.
The second pillar. We want to raise up authoritative voices when users seek breaking
news and information. We want to elevate high quality content and authoritative sources
where it matters most. For example, we provide covid labels under every video, mentioning
the covid pandemic. The information window for COVID-19 content includes links to
the government site, Dutch local authorities and the Dutch information site about
COVID-19. Another example, also about The Netherlands. During the national elections
last year, we provided information on how to vote, where to vote and links to local
resources, all from authoritative sources from The Netherlands. We build our product
for everyone, while more than 100,000 YouTube employees around the world all have
of course a wide variety of views. We have safeguards in place to ensure that we design
and enforce our policies in a way that is free from improper bias.
The third pillar. We reduce the spread of content that brushes up against our policy
lines or so-called borderline content. We reduce the spread of potentially harmful
information while we feature or recommend content, even beyond our policies. While
every piece of content that is available on our site should be easy to find by users
who are actively looking for it, not all content that is aggravated is recommended
to users. We do not have an obligation to do so.
Finally, we want to reward trusted, eligible creators and artists. We set very high
standards for quality reliability for publishers and content creators, who would like
to advertise on the content. When they need to disperse, we of course want them to
be successful. These levers allow us to be consistent in our methodology across products,
while tailoring their implementation to fit the uses and the needs of its users. We
share the goals of European stakeholders to develop a comprehensive framework that
supports consumer protection across digital platforms. However, in such a comprehensive
undertaking, the slightest change in the text can have significant and potentially
unintended consequences for our responsibility efforts. A negative impact for creators
and users is jeopardizing the effectiveness of legislation. For example, as we move
into the final stages of the Digital Services Act, we believe it is critical to help
the stakeholders better understand how YouTube's approach to responsibility across
several areas and how some of the proposals could also negatively impact our current
policies and processes. Our hope is that through a constructive dialogue like this,
we will be able to balance policy goals and the realities of operating a safe and
open digital platform. Thank you for your time. I am very happy to answer any questions
you may have.
De voorzitter:
Thank you for your opening statement, Mr Pancini. I would like to give the floor to
Ms Van Weerdenburg.
Mevrouw Van Weerdenburg (PVV):
Thank you, Mr Chairman, and thank you, Mr Pancini for enlighting us this morning.
Lately, there is a strong opinion that social media platforms play a significant role
in social unrest and polarization, radicalization and other undesirable impacts on
democracy. What is your opinion on that? Is it true? Is your platform merely a mirror
of society or do algorithms or the working of your platform give a megaphone to extreme
views?
De heer Pancini:
Thank you for the question. Recommendations are there to help users to find content
that they love, content that is positive and engaging for them. That is why we want
to make sure that, especially when you are looking for music or entertainment content,
you will find content that you like or that people with a similar preference like
you also like. When it is about political speech or speech more in general the rules
have to be different. We acknowledge that. That is why we want to make sure that,
when users are coming to our platform, they find authoritative sources. When a user
is searching for breaking news, we want them to find recommended content that is coming
from authoritative sources. That was very important during the past years. The task
was: make sure that users coming to our platforms were finding this kind of information.
That is also true for issues like the pandemic. Of course, if users are searching
for content related to COVID-19, we want them to receive recommended content that
is in line with the health authorities guidelines. Whenever a video is talking about
COVID-19, there are links around the video and near the video that lead to authoritative
sources to complete the information for the users.
About the role of platforms like YouTube in the social discourse I would like to point
your attention to several facts. First, there is a lot of discussion around the business
model of platforms like YouTube. I want to clearly state that since the beginning,
it is in our business interest to make sure that content that is recommended to our
users is not borderline, is not controversial. Because this is also what our business
partners and our advertisers want. Advertisers do not want to be associated with controversial
content, borderline content. On the other side, users also want positive content.
There is an interesting study from AlgorithmWatch about the very recent German elections,
which shows that users coming to YouTube in Germany, who are searching for information
around the elections, were recommended content that was not aiming to radicalize their
views. This is testament of our efforts to ensure that this is the direction that
we are taking.
De voorzitter:
Thank you, Mr Pancini. Ms Van Ginneken.
Mevrouw Van Ginneken (D66):
Thank you. Thank you for being with us, Mr Pancini. I want to dive a bit deeper into
the recommendation algorithm. You stated that political speech, political content,
is handled differently. This recommendation algorithm is a very important one. Your
Chief Product Officer, Neil Mohan, stated that 70% of all the watched content on YouTube
came from the recommended section. So, it plays a huge part in helping us find interesting
content, but also in finding disturbing content. The recommendation algorithm is not
neutral. Last year, Mozilla conducted research and found that over 70% of the recommended
videos violate YouTube's own content policies for various reasons. This is quite interesting,
especially in non-English speaking countries.
Excuse me for this long introduction, but I think not all viewers are as involved
in this as you and I are. In this recommendation algorithm, there is something that
is called a rabbit hole. A rabbit hole works as follows: a colleague of mine recently
created a new clean YouTube account and watched a video about a PCR-test. He clicked
the first recommendation he got and that brought up a video about the validity of
PCR-tests. Then he clicked the first recommendation that came out of that video and
that was a video about a conspiracy theory on whether or not corona is a hoax. This
is called a rabbit hole: you get pulled into radical extremist content quite quickly.
This happens on your platform. This is quite a worrying phenomenon, I think, with
regard to polarization in our society. Can you reflect on how this algorithm comes
up with this extreme content so quickly? What is happening there?
De heer Pancini:
Thank you for this question. I would be very happy to look into the example that you
are bringing to my attention and to provide you with feedback. That said, let me put
into context our work around recommendation and content more in general. Let us start
from the entry point of the conversation. We want to make sure that every piece of
content on our platform is in line with our policies. How do we do that? We do that
with a combination of machines and humans. Machines help us to find the content at
scale, humans review the content and review also the flags that we are receiving from
our users. First and foremost, if a piece of content is not in line with our policies,
we want to make sure that we are able to identify this content and remove it with
as little views as possible. To give you an idea, we have developed a metric about
the priority view rate. For every 10,000 views this measures the number of views that
come from priority content. In Q3 2021 this was 0.9% to 0.11%, meaning that for every
10,000 views only 9/11 were coming from a priority service. Is this perfect? Of course,
it is not. It is very important to adapt our policies to local and specific issues.
In relation to this, I want to mention one example that in my view is very important
in relation to the development of our policies. During the pandemic, we started to
see, in Europe in particular, real-life attacks on 5G masts and in plants, because
there was this hoax that 5G was one of the reasons why covid was spreading. We took
these developments into consideration in our policies in a matter of days. We adapted
our policies. This was something that was coming from Europe and from The Netherlands.
Of course, this was in conflict with the guidelines from the local authorities. Once
again, we were able to attack this content.
Now, moving to the recommendation, because I want to make sure that I answer your
question. When it comes to recommendation, of course we do not want to recommend content
that is against our policies.
Mevrouw Van Ginneken (D66):
Excuse me, Mr Pancini. I really appreciate that you want to be very specific in your
answer, but I want to focus on the negative effects of the algorithm. You mention
all kinds of seemingly low numbers, but research also shows that in general 80% of
the most arousing, most extreme content is delivered to a small group that is most
willing and likely to act on this content. So, small numbers at first glance may have
a huge impact on people who are maybe likely to storm the Capitol. This recommendation
algorithm has quite a big responsibility. All the mitigating actions you take bypass
the fundamental question: should you not adapt the algorithm itself and take a root
action on that?
De heer Pancini:
Indeed, that is the main point. What does the small number mean? It means that the
way the algorithm works, it is not pushing the users towards the rabbit hole. We strive
to push users to a variety of views. That is why I mentioned the recent analysis from
AlgorithmWatch. I am aware of the study done by Mozilla. I am also aware of the specific
situation where users are already radicalized or where they are searching for content
that confirms their bias. Of course, not because of the recommendation but because
of the way they are interacting with the platform, if they keep on searching and keep
on subscribing for specific channels, they could get the same suggestion. But that
is not the way the algorithm works. The algorithm always goes in the direction of
finding more views on the case of the radicalization. What we need to do as a society
is really take hold of these issues, as we did for example in the context of radicalization
and terrorism a few years ago, by providing additional information near every video.
If a video is working according to the lines of our policies, borderline would not
be recommended for the user to look into this. You want to make sure that near the
video there is a clear indication of the authority's opinion. For example, for a hoax
or conspiracy theories: when it is against our policies, it is taken down. If it is
not against our policies but if the way the content is expressed is borderline, we
do not want to recommend this video and we will use a local expert to identify this
content. If a user is searching for this video and finds the video, around the video
we want to make sure that the user can find more information coming from authoritative
sources.
De voorzitter:
Thank you, Mr Pancini. I would like to give the floor to Mrs Rajkowski.
Mevrouw Rajkowski (VVD):
Thank you, Mr Pancini, for being here today. We invited multiple social media platforms
and YouTube and Facebook/Metaware were the two that said: we are going to come and
going to take our responsibilities. That is great, thank you. I want to talk to you
about facts. Everyone has a feeling or an image of what social media platforms do.
When I look at the facts, I see that in January of this year, according to an article
in The Guardian, there was a letter signed by more than 80 groups of fact checkers
around the world. They said that the video platform is hosting content by groups including
Doctors for the Truth, who spread covid misinformation, and videos supporting fraud
narrative during the US presidential election. You just stated in your introduction
that you are doing a lot when it comes to misinformation. The good thing here is that
your platform allows to do this extensive fact checkers research. I want to ask you
the following. In Europe, we are working on new legislation, the Digital Services
Act and the Digital Markets Act. You are probably well aware of this. What is holding
you back to take this legislation into account and to take your responsibility right
now? Why are you not waiting until this legislation is in force and obliging you to
do so?
De heer Pancini:
Thank you, Mr Chair. That is also an excellent question. This question gives me the
opportunity to speak about the work that we are doing with fact checkers in the context
of the code of practice on misinformation. You are probably familiar with the previous
code of practice on misinformation that we signed on the occasion of the last European
elections, to make sure that we had processes and best practices in place to handle
all this information in the context of the European elections. The aim of this code
for Brussels was to monitor closely. We have been providing at first a bi-weekly,
then a monthly and bi-monthly report to the European Commission, which is publicly
available, about the efforts that we are taking against COVID-19. We believe that
there is room to improve this code of practice. That is why we are actively discussing
how to improve and strengthen the obligations of the code of practice with a very
big group of stakeholders, including fact checkers. Of course, that is going to be
in line with the framework of the DSA. You are correctly suggesting that we are not
waiting for the DSA to tell us how to take hold of important societal issues like
this information.
Mevrouw Rajkowski (VVD):
Thank you. Let us make it concrete. This article is relatively new, from January,
so just a few weeks ago. What has changed since then?
De heer Pancini:
The article is actually an important call for stricter collaboration with the fact
checkers. This is absolutely in line with our interests. We are investigating how
we can work in a more effective way with fact checkers across the world in the context
of the code of practice and also how to ensure that we can help each other and find
positive ways to inform users. I think the letter was an important reminder for us
about how we need to work with fact checkers in a more effective way. We are looking
into this right now. We hope that in a few weeks’ time we can announce that the new
code of practice has been signed.
De voorzitter:
Thank you, Mr Pancini. I will give the floor to Mrs Koekkoek.
Mevrouw Koekkoek (Volt):
I want to ask a question about the importance of the right to information that you
rightfully mentioned in your introduction, especially in the context of the dependence
on Google products. We, as customers, but also in the context of businesses or education,
have seen that there are many different Google services and products. There is also
interoperability between these services and products. Therefore, in practice we are
a society that is quite dependent on how Google products function with each other.
I can see that there is a risk that actually limits the right to information, because
all those customers, but also teachers and school students are dependent on what Google
suggests and on what is offered. How do you reflect on this? Especially on the negative
impact on the right of freedom of information that bigger market players such as yourself
might cause?
De heer Pancini:
It is in the Google DNA – and YouTube is absolutely in line with this – to offer products
that are open and available to everyone and to create a vibrant ecosystem. The main
example is Android. Android is an operating system for mobile phones, which can be
tailored and can be used from a different OEM. It is creating a vibrant ecosystem
of platforms and applications. Just to give you an idea, the main way for users to
access TikTok is through Android. TikTok is a very effective and available competitor
for services like YouTube. That is for sure the direction the openness of the platforms
that we are creating is taking. That said, the call for interoperability is very important.
We are looking into these topics in the context of the DSA and the DMA. When we talk
about interoperability and, for example, transparency, it is always very important
to understand the balance that we need to find between this very important concept
and other equally important concepts like safety, security and privacy. We have to
make sure that interoperability and transparency are not creating situations in which
we put the safety and the data of our users at risk. I am happy to subscribe to everything
you said and to confirm that our view goes in the direction of building open platforms.
De voorzitter:
Mrs Koekkoek.
Mevrouw Koekkoek (Volt):
Maybe a question to specify this. What I hear in your answer is mostly related to
market competition and the choices that we can make as a customer. But what I meant
is that as users, for example teachers or students, we all sign user agreements when
we use products and services. In those product agreements there are certain standards
for privacy and for what can be done with our data. Considering that there are different
services and products but that the operator is the same, the privacy standards in
those agreements are similar. This is what I meant by the market power of those agreements
versus the right to information that we all have. How would that perhaps negatively
conflict with each other or spiral us in a direction that would actually limit our
right to information? Because we are all operating under the same user agreements.
De voorzitter:
Your reaction, Mr Pancini.
De heer Pancini:
That is an excellent question. I think that my colleagues from the Cloud team would
probably be better equipped to answer your question. From a consumer point of view,
there are so many rules and regulations that are in a certain sense helping the platforms
to build their terms and conditions and privacy policies, that from that vantage point
I do not see this conflict. I and my colleagues from the Cloud team will be very happy
to explore this point in more detail with you.
De voorzitter:
Thank you, Mr Pancini. I would like to give the floor to Mr Ceder on behalf of the
Christian Union.
De heer Ceder (ChristenUnie):
Thank you so much for being here, Mr Pancini. I have a question for clarification.
Is it true that the end goal for your platform, for Google and YouTube, is that people
spend as much time as possible on the platform, with the aim of creating advertisement
opportunities and the monetary model? Is that true or do you have another objective?
This relates to my next question.
De heer Pancini:
It is not true. I want to confirm that our goal is twofold. Firstly, we want to make
sure that our partners, the creators, can have a voice and can find an audience. We
also want to create an effective business model with ways to monitor by which creators
can help make it a sustainable business. Very soon, we are going to provide the data
about what this means in The Netherlands. We are very happy with that. On the other
side, we want to make sure that users can have a variety of sources and voices to
entertain themselves, to inform themselves, to learn something. To your specific question:
you said this could be an act of faith that you are asking. No, it is not an act of
faith. What might help to convince you is that if we do not do this in a proper way
– for example if we suggest borderline content, controversial content to our users –
the advertisers that are helping us to build an effective business would be unhappy
and would go away. Therefore, our business would fail.
De voorzitter:
Thank you. Your next question, Mr Ceder.
De heer Ceder (ChristenUnie):
Thank you for answering that question. I have another question related to your answer.
As we previously discussed, the algorithm provides videos that would most likely be
appealing to people. Is that not just because the platform wants people to stay as
long as possible on the platform? If that was not the case, you would not provide
the most appealing videos for people. Could you clarify that point? I hear what you
are saying, but at the same time, the usage on YouTube and the answers that were given
previously do not seem to match. So, just for clarification.
De heer Pancini:
That is an excellent point. That is why, while on one side making sure that users
come to our platform and find the content that they love, at the same time we respect
a quality time for our users. We built a series of tools for the wellbeing of our
users. These tools are for example the possibility to switch off Autoplay, the possibility
to get reminders about the time that you are spending online, or the reminder to take
a break after watching a certain number of videos. It is really not about the quantity
of time that users are spending on the platform, it is about the quality of the time
spent on the platform. This is the kind of virtual circle you want to create. In order
to assist parents to do this effectively, we provide parents with tools that can help
them to make sure that their kids have healthy and positive experiences on our platform.
For example, which content they can watch on YouTube but also how much time the kids
can spend on YouTube. It is a holistic approach which strives to ensure that users
spend quality time on our platform and have a quality experience.
De voorzitter:
Thank you, Mr Pancini. Mrs Van Ginneken.
Mevrouw Van Ginneken (D66):
I have another question about the effects of the recommendation algorithm. Earlier,
you already mentioned a few seemingly low numbers of extreme content that is delivered.
I am still not quite satisfied with the answers I got. We know that the recommendation
algorithm delivers this extreme content to exactly the most receptive and the most
vulnerable users. The very essence of the recommendation algorithm is that it brings
the content to people, who are most likely to engage with it. The Dutch Intelligence
and Security Service warned about the polarizing and radicalizing effect of this mechanism,
because it also brings extreme content to those people, who are most likely to act
on it in a physical space, as we saw in the United States with the storming of the
Capitol. The low numbers you constantly report are, to my taste, somewhat diminishing
the urgency of the problem. It gives me the idea that you are giving up on those people
and the huge negative impact they, because of your recommendation algorithm, can have
on our society. Can you reflect on that?
De heer Pancini:
That is absolutely a very valid point. I would like to mention three additional clarification
points. Firstly, once again it is in our business interest that we do not recommend
borderline content. For the majority of users, borderline content creating engagement
does not bring any value to advertisers and does not create any positive engagement.
So, firstly the business argument. But then I want to be a little more specific. It
is not only a matter of quantity in the numbers I report. It is also a matter of quality.
In order to identify borderline content and specifically content that is not against
our policies but that is controversial, we use local experts that are helping us in
rating the content. When content is identified as borderline, it is not recommended
anymore.
Finally, it obviously is a challenge for us, because we want to find the fine balance
between keeping the platform open to different points of view and making sure that
we do not run the risk to help people to radicalize. How are we trying to achieve
this? With all the tools that I described before. But we also really welcome the support
from institutions. For example, I would like to bring to your attention the recent
decisions that were made by the courts in The Netherlands about two actions that we
took. Two very important speakers, including a politician, were first appealing to
us and then to the relevant courts concerning our decisions. The courts confirmed
that our decisions were right. I do not want to say in a certain sense that we want
to offload these to courts, but I want to tell you that, since sometimes these decisions
are so delicate and important, we of course want the judge and jury to enlighten this.
We welcome the confirmation and we welcome the rule of law, which helps us to do a
good job.
Mevrouw Van Ginneken (D66):
But, referring to the article in The Guardian that my colleague Rajkowski quoted earlier,
the researchers stated that all the current measures that you are taking prove insufficient,
especially in non-English speaking countries. So, there is still a problem to solve
here.
De voorzitter:
Maybe before you start answering, Mr Pancini, Mrs Rajkowski would like to add something
as well.
Mevrouw Rajkowski (VVD):
Yes, thank you. Of course, we understand that YouTube does not have all the knowledge
when it comes to countries about what is right and what is wrong. If a platform behaves
not only like a company, but also like the police and the judge, something is going
wrong. I would like to ask you this specific question. How many times, let us say
in January of this year, have you found something on the platform that is possibly
illegal? How many times did you give a signal to the Dutch police and the Dutch intelligence
institutes?
De heer Pancini:
Thank you so much for these questions. Let us start with the first one. The article
talks about different platforms. By the way, one example in the article we are looking
at is making reference to a video that was linked from Facebook. I think the letter
from the fact checkers is a very important call for improving the collaboration. That
was also how we followed-up with the fact checkers: to look into ways in which we
can work together, especially in the context of the coming code of practice.
On the language side, I confirm that, for example with the attacks on the 5G masts
in The Netherlands, we take into consideration local specificities and local languages,
including the use of local experts to help us identify borderline content. Regarding
your question about how many times, I cannot be so specific, because the data are
not yet available. Of course, they have to be processed. If you go to our transparency
record however, you will find all the information there relating to how many requests
for information we received from law enforcement across the world and how many answers
we gave.
Mevrouw Rajkowski (VVD):
Excuse me for interrupting you, Mr Pancini. I am just looking at the time. Of course,
I could imagine that this would be your answer, when I asked you about the numbers
for January. That was only two weeks ago. I can imagine that you would say that you
do not have the data yet. Let me then ask you the same question about January last
year. I am not asking you how many times intelligence services asked you to deliver
information, but how many times you saw something happen on the platform of which
you were thinking: this is someone from The Netherlands trying to create something
that we do not like, something that is illegal. How many times have you given signals
to the Dutch authorities?
De heer Pancini:
That is a question about delicate information. I think I cannot disclose that in this
public hearing. But I welcome you to get in touch with for example Europol or the
association that is looking into S.E.S.A.M.E. in The Netherlands to hear how we are
collaborating under the rule of law in this regard. Especially the example of S.E.S.A.M.E.
is in my view very important. Every time we find a piece of content on our platform
that is child abuse material, we communicate this content to the international umbrella
organization coordinating action against these horrible events. This association then
refers it to the local authorities for following up on investigations, including European
law enforcements. This happens for high profile crimes. Our partners can confirm that.
De voorzitter:
Thank you, Mr Pancini. That brings us to the end of this public hearing. I would like
to thank you for answering the questions of our Members of Parliament.
We zijn aan het einde gekomen van het tweede deel en daarmee ook aan het einde van
deze hoorzitting van de vaste commissie voor Digitale Zaken over de rol van socialemediaplatforms.
Ik dank de mensen thuis die ons gevolgd hebben. Ik dank de Kamerleden en natuurlijk
onze gasten. Thank you again, Mr. Pancini. Ik wens iedereen een hele plezierige dag
en sluit deze vergadering.
Sluiting 11.45 uur.
Ondertekenaars
-
Eerste ondertekenaar
R.J. Kamminga, voorzitter van de vaste commissie voor Digitale Zaken -
Mede ondertekenaar
L. Boeve , griffier