[Episode in Dutch]
In deze aflevering, 'Riskante Relaties’, bekijken we hoe de algoritmes van sociale media bepaalde Russische en Chinese staatsmedia voortrekken. Zo blijkt uit ons onderzoek dat de berichtgeving over de oorlog in Oekraïne op YouTube in België gedomineerd wordt door Chinese en Turkse staatsmedia. We proberen te begrijpen hoe deze algoritmes werken en hoe ze de invloed versterken van buitenlandse propaganda op het Belgische en Europese publiek.
CrossOver is een Europees project dat de verbazingwekkende algoritmes waar het hier allemaal om draait, verkent en probeert te ontleden.
Met medewerking van :
Jan Walraven (interviewer, Apache)
Bram Souffreau (Apache, CrossOver Project)
Hind Fraihi (Apache, CrossOver Project)
Zara Mommerency (Mediawijs)
Marieke Rimaux (voice over)
Geproduceerd door Savoir Devenir en Marieke Rimaux
Opgenomen in de BNA-BBOT studio in Brussel
Crossover tracks and measures the influence of content recommendation algorithms on social media in Belgium, exposing how they can lead to mis- and disinformation. We monitor, investigate, expose and respond to the spread of dubious and nefarious content in both French and Dutch on Youtube, Twitter, and more. This project is supported by the European Union and unites EU DisinfoLab, Apache, Savoir Devenir and Check First.
CROSSOVER PODCAST – EPISODE “Riskante relaties”
VO: Je luistert naar de podcast CROSSOVER. Crossover is een Europees project dat de verbazingwekkende algoritmen waar het hier allemaal om draait, verkent en uit de doeken doet.
Maar wat zijn algoritmen eigenlijk? Het is een eindige en ondubbelzinnige opeenvolging van instructies en bewerkingen, geschreven door ontwikkelaars, die een probleem oplossen. Je kan het een beetje vergelijken met een hele lijst ingrediënten en instructies voor het recept van een ingewikkeld gerecht.
In deze podcast zullen we het vooral hebben over de algoritmen van sociale media, die op basis van onder meer persoonlijke voorkeuren en populaire trends automatisch bepalen welke berichten op de tijdlijn van individuele gebruikers verschijnen.
Die algoritmen van sociale media beïnvloeden onze relaties, ons consumptiegedrag, onze cultuur en vooral: de manier waarop we onszelf informeren en de wereld waarnemen. Zo zorgt een algoritme op pakweg Youtube ervoor, dat als je een Nederlandstalige zoekterm intikt, die te maken heeft met de oorlog in Oekraïne, je hoofdzakelijk nieuws te zien krijgt uit Nederland.
Maar weten we echt wat ze zijn, hoe ze werken en welke economische of ideologische logica erachter schuil gaat? En hoe kunnen we proberen ze te beheersen, in plaats van ze te ondergaan? Algoritmen begrijpen, ze kritisch kunnen analyseren en leren hoe je jezelf ertegen kan beschermen: dat zijn de doelstellingen van zogeheten ‘algoritmische geletterdheid’ en dat is ook het gebied dat het Crossover-project met een reeks analyses en podcasts onderzoekt.
In deze aflevering "Gevaarlijke Verhoudingen" hebben we het over algoritmen, propaganda en verzet.
Op 1 maart 2022, aan het begin van de Russische inval in Oekraïne, heeft de Europese Unie de Russische mediakanalen Russia Today en Sputnik verboden, om zo de propaganda van het Kremlin de pas af te snijden. Enkele maanden later, wordt op YouTube de informatie over Oekraïne in België gedomineerd door media uit China en Turkije. En de stem van de eigen media is op de videostreamingdienst veel moeilijker te horen. Wat is er aan de hand?
Hoe verhouden algoritmes zich tot staatspropaganda op sociale media?
Via het Crossover Dashboard, een tool waarmee we algoritmen kunnen analyseren, zullen we proberen te begrijpen hoe algoritmen werken en hoe ze de greep van buitenlandse staatsmedia op de Belgische en Europese publieke opinie kunnen beïnvloeden. We laten Bram, mede-oprichter van Apache, en Hind, journalist bij Apache, in deze podcast aan het woord om ons daarbij te helpen.
Tot slot zal onze expert Media- en Informatiegeletterdheid, Zara Mommerency, uitleggen hoe wij, als burgers, allemaal kunnen vechten tegen online propaganda!
Bram Souffreau BS
Jan Walraven JW
Hind Fraihi HF
Zara Mommerency ZM
03:15
JW: Hallo ik ben Jan Walraven van Apache, wat als aanbevelingsalgoritmen bepaalde staatsmedia voortrekken?
Dat is de vraag die we vandaag met onze gasten zullen onderzoeken.
Daarom hebben we 2 partners van het Europese Crossover project bij ons in de studio, Hind Fraihi en Bram Souffreau. Zij werken allebei bij Apache en zullen ons helpen een duidelijker beeld te krijgen.
Dag Bram. Jij bent een medeoprichter van Apache, een Belgisch medium dat gespecialiseerd is in onderzoekjournalistiek, je werkt ook mee aan het Crossoverproject dat in juni 2022 een studie publiceerde met de titel: ‘Zijn algoritmen van YouTube verslaaft aan staatsmedia?’
Kan je ons daar iets meer over vertellen.
04.10
BS: Met plezier. Ik wil er ook graag op wijzen dat dit onderzoek is uitgevoerd door onze partner Check First. Zij zijn deskundigen inzake algoritmen.
JW: Oké, de studie begint met het verbod van de Europese Unie om de Russische mediakanalen Russia Today en Sputnik niet langer uit te zenden in de Europese unie, in de lidstaten van de Europese unie.
Waarom gebeurde dat?
BS: Voor de Europese Unie ging het om zich te beschermen tegen de Russische propaganda, vooral online dan. In het kader van de oorlog, of die ja, door de oorlog veel duidelijker werd.
04.55
Ursula von der Leyen voorzitter van de Europese Comissie, was duidelijk toen ze zei dat de staatsmedia Russia Today en Sputnik en hun dochterondernemingen niet langer hun leugens ter rechtvaardiging van Putins oorlog zouden kunnen uitzenden.
JW: Heeft dat verbod gewerkt of heeft dat zijn doel bereikt?
BS: Ja en neen. Ja omdat, technisch gezien werden deze Russische staatsmedia snel in Europa effectief verboden.
Hun uitzendlicenties werden opgeschort, de sociale media-accounts werden stopgezet en de websites werden geblokkeerd.
Ook al konden sommige mensen nog steeds toegang krijgen tot de inhoud. Over het algemeen werkte het. Sputnik France bijvoorbeeld, is ook snel failliet gegaan omdat ze eigenlijk geen inkomsten meer kregen uit de sociale media. Maar er was wel nog degelijk een probleem en dat heeft niks te maken met Russia Today of Sputnik maar wel met de media die hun plaats hebben ingenomen.
JW: En welke staatsmedia of andere media hebben dan de plaats ingenomen van de verboden zender?
06.11
BS: we hebben dit bestudeerd met het dashboard dat binnen het Crossoverproject is ontwikkeld. De tool die we hadden, analyseerde de zoekresultaten en de video’s die door de algoritmen van YouTube worden aanbevolen wanneer dat een Belgische gebruiker het trefwoord Rusland intikt in de zoekbalk. En dat voor en na het verbod van de Franse tak van Russia Today: RT France.
In Februari 2022, dus aan het begin van de oorlog verscheen RT France als belangrijkste bron en had ook de meest aanbevolen video’s. Toen RT France op YouTube werd verboden, werd het snel vervangen. Eerst was er de opkomst van France 24, dus een Franse nieuwszender. Maar daarna kwam de opkomst van CGTN, dat is dus een Chinese staatszender, dat staat voor China Global Television Network.
Vooral de Franstalige tak daarvan. En zij (CGTN) zijn een orgaan dat door China wordt uitgebaat en zij proberen de Chinese waarden, laat ons zeggen en het Chinese nieuws in het buitenland te promoten.
Dit medium dat sinds februari 2021 al in Engeland is verboden omdat het onder de controle staat van de communistische partij in China, maar is dus nog steeds wel legaal in Europa. En staat bovendien in de YouTube aanbevelingen over Oekraïne, staan zij altijd zeer hoog.
Wat we zien is dat de Russische staatszenders zijn verdwenen uit de zoekresultaten van de sociale media, en vooral dan YouTube, maar dat de plaats is ingenomen door een Chinese propagandazender: CGTN.
JW: Denk je dat die Franse tak van CGTN, CGTN Français, dat dat een belangrijk nieuwskanaal is geworden voor Belgische gebruikers als het bovenaan staat in die zoekresultaten van Youtube?
08.27
BS: Een belangrijk nieuwsmedium, niet echt denk ik. Wat we wel vaststellen is dat CGTN Français goed scoort als het gaat over Oekraïne en uit een onderzoek hebben we ook vastgesteld dat de video’s van CGTN Francais, als het gaat over de Oeigoeren, de Chinese minderheid die wordt onderdrukt door de communistische partij of de staat China, dat die video ook goed worden bekeken en dat ze eigenlijk ook wel een invloed hebben op de Belgen.
Maar als het gaat over andere onderwerpen die niets te maken hebben met de oorlog in Oekraïne, die niets te maken hebben met Rusland of met de Oeigoeren, dan merken we niet dat CGTN veel beter scoort of veel beter, of meer wordt aanbevolen dan andere.
09:19
JW: En dan om af te sluiten, hoe is de Franse CGTN erin geslaagd om zo hoog in die lijst met aanbevelingen van YouTube te geraken?
BS: Dat is net zeer moeilijk om uit te leggen of om te doorgronden, het algoritme van YouTube is, laat ons zeggen, een soort zwarte doos: Niemand weet echt hoe het algoritme functioneert en hoe dat het werkt.
Dus wij weten niet echt hoe dat het komt dat bepaalde zoekresultaten veel beter scoren dan andere zoekresultaten en bepaalde video’s bijvoorbeeld van CGTN, waarom dat die beter scoren dan andere gelijkaardige video’s van, laat ons zeggen westerse zenders bijvoorbeeld.
Misschien heeft het te maken met een aantal aanwijzingen die we hebben maar dat is natuurlijk niet 100% zeker.
Een eerste aanwijzing die we hebben, is dat het algoritme blijkbaar de voorkeur geeft aan inhoud zoals die voor de Franse tak van CGTN gecreëerd wordt omdat er een bepaalde ‘buzz’ is of omdat die populair zijn.
Zij pushen ook bijvoorbeeld accounts die heel veel en heel vaak video’s produceren en uploaden, ze bevoordelen de inhoud die de internetgebruikers het meest doorgeven en becommentariëren, dus ze dat is YouTube.
Dus zij zijn degene, of het algoritme van Youtube, is degene die de accounts pusht, die ook meer aandacht heeft voor accounts die meer volgers heeft dan andere.
Het algoritme van YouTube zelf, waarvan dat we weten dat het ondoorzichtig is laat ons in het ongewisse over het hoe en waarom dat bepaalde video’s al dan niet worden aanbevolen aan gebruikers.
Dus dat weten we niet, dat kunnen we niet doorgronden.
VO: Het is eind april 2022. Twee maanden zijn verstreken sinds de invasie van Oekraïne begon, en RT France en Sputnik werden verboden. De informatieoorlog gaat een nieuwe fase in nu de staatspropaganda van China, Rusland en, in mindere mate, Turkije sterk aanwezig zijn op YouTube in de berichtgeving over Oekraïne. Ten koste van de nationale media. Dat blijkt uit een onderzoek in België waaraan Hind Fraihi van Apache heeft deelgenomen.
11:42
JW: Ik heb hier Hind Fraihi bij mij, zij is onderzoeksjournalist bij Apache en werkt aan het Crossoverproject.
Dag Hind, welkom.
HF: Dag Jan.
JW: Jij hebt al met het Finse Check First, een partner in Crossover gewerkt, je gebruikt het dashboard van Crossover intensief. De situatie wat betreft online desinformatie, propaganda is, zeker in de oorlog tussen Oekraïne en Rusland, niet verbeterd online.
Wat is er gebeurd, wat is er aan de hand?
HF: Ik zal even eerst iets kort zeggen over de dashboards op zich, die zijn ontwikkeld door onze Finse partner. Een databureau dat een software heeft ontwikkeld dat een dashboard is, een monitoring systeem laat ons zeggen, waarin dat we aanbevelingsalgoritmen kunnen opvolgen, monitoren. En met aanbevelingsalgoritmen bedoelen we dan welke content er wordt aanbevolen op sociale platformen, aan Belgische internetgebruikers en zo volgen we een zestal platformen van Reddit tot Twitter, Facebook, YouTube maar ook Odysee laat ons zeggen al wat minder bekend in vlaanderen maar toch al ruimer gekend als een platform voor extreem rechtse gebruikers.
JW: En vind je het verontrustend dat Belgische gebruikers op YouTube die informatie over de oorlog in Oekraïne zoeken, dat zij vooral die buitenlandse media, buitenlandse staatsmedia op hun bord krijgen?
HF: Daar kan ik niet tegen zijn, waar ik wel tegen ben, is hoe dat dat nieuws wordt aangebracht en daar zie je natuurlijk hier en daar wat desinformatie-technieken die toegepast worden.
Bij het geval van Russische propaganda, die zijn eigenlijk uit op het destabiliseren van Europa. Ze willen chaos om het heel boutadisch te zeggen ‘From Russia with chaos’.
En in het geval van Chinese staatszenders zie je eigenlijk vooral een zelfverheerlijking, zelfpromotie gericht aan het eigen adres, blijkt uit ons onderzoek wat betreft de berichtgeving over de Oeigoeren.
JW: Heeft het ook te maken met de taal, dat video’s die in het Nederlands zijn en in het Vlaams zijn, minder aanbevolen worden omdat dat over een kleiner taalgebied gaat, zodat die buitenlandse media die dan in het Engels of in het Frans video’s produceren dat zij dan wel voorgetrokken worden door YouTube?
14.33
HF: Het kleine taalgebied speelt uiteraard een rol, we zijn een taalminderheid. Maar het is eigenlijk ook wel heel interessant om te zien op onze dashboards dat er toch wel een grotere invloed is vanuit Nederland, Nederlandse media dan omgekeerd denk ik, vanuit België naar Nederland toe.
We hebben dat heel duidelijk kunnen zien bij de betoging rond het vrijheidskonvooi in februari, midden februari werd daar enorm voor gemobiliseerd op de sociale media, om Brussel lam te leggen, om te komen betogen. Bij voorkeur met een voertuig om te demonstreren tegen de corona maatregelen en het vaccinbeleid.
En daar zag je dat op onze social media toch wel wat content werd gedeeld die afkomstig is uit Nederland.
JW: En wat kan je ons vertellen over de online desinformatie die circuleert op deze platformen en hoe de algoritmen van bijvoorbeeld YouTube daarmee omgaan.
HF: Ik kan daar veel over vertellen maar eigenlijk ook weinig, het is zoals Bram dat net zei, algoritmes laten niet altijd in hun kaarten kijken, of toch ten minste de Big Tech bedrijven die niet altijd een antwoord geven of weten te geven op onze vragen over hoe algoritmes nu wel werken met name wat er zeker aanbevolen wordt aan Belgische internetgebruikers.
Nu, Crossover is een project dat we ingediend hebben vorig jaar in 2021, dus nog voor de inval van Rusland in Oekraïne.
En in maart, nee eind februari, komt dat dan tot die invasie en dan wordt het nog, laat ons zeggen, super spannender om die dashboards op te volgen.
Wat hebben we tot hiertoe kunnen concluderen: Wel, als je zoektermen ingeeft die gerelateerd zijn aan de oorlog in Oekraïne bijvoorbeeld Kiev, Donbass of Oekraïne zelf als zoektermen, dan kom je 9 op de 10 laat ons zeggen, uit bij buitenlandse media nog voor Russia Today gecensureerd werd, werd dan vooral Russia today aanbevolen, maar later zagen we dan dat het terrein na de censuur werd ingenomen door Chinese Global Television Network, een Chinese staatzender, een mediareus laat ons zeggen die meertalig is. Nieuws geeft in het Spaans, Engels, Frans, en dat helpt natuurlijk ook wel om dat algoritme voor te trekken.
JW: We hebben de vraag ook al gesteld aan google en aan YouTube, hoe dat algoritme in elkaar zit, maar het geheime recept krijgen we niet van hen.
VO: Op 25 mei 2022 was bijna 70% van de 50 meest bekeken video's op Youtube gerelateerd aan het
Russisch-Oekraïense conflict. Zo blijkt uit het onderzoek van CheckFirst. Deze video’s zijn ook bijzonder omdat ze meer reacties en meer likes genereren. Is er een manier om daarop in te spelen, om propaganda te bestrijden? We vragen het aan onze expert mediawijsheid, Zara Mommerency.
17.35
JW: Dag Zara Mommerency je bent welkom in onze studio, je werkt rond mediawijsheid, je doet vanalles rond mediawijsheid, kan je ons kort even uitleggen wat je precies doet?
ZM: Hallo, ik ben hier bij het kenniscentrum mediawijs en wat we eigenlijk doen is burgers, zowel jong als oud eigenlijk actief kritisch, creatief kritisch met media doen omgaan als in gebruiken en begrijpen van media en bijvoorbeeld als je dan kijkt naar online informatie is dat: Hoe komt dat op ons af? Hoe werken sociale media? Hoe werken zij eigenlijk desinformatie in de hand? Dat zijn van die dingen waar wij dan op inspelen.
18.50
JW: Wij hebben een onderzoek gedaan of wij voeren een onderzoek naar de aanbevelingsalgoritmes van YouTube en andere sociale media en als we dat onderzoek voerden zoals we al uitvoerig hebben besproken, dan zien we dat daar op YouTube heel veel video’s van Chinese staatsmedia vaak propaganda-video’s, aanbevolen worden, dat Belgische gebruikers ook die videos als eerste te zien krijgen als ze op zoek gaan naar informatie over Oekraïne op YouTube.
Kunnen we daar iets aan doen? Moeten we dat gewoon vaststellen of…
ZM: Goh, ik denk dat we zeker niet te bang mogen zijn, enerzijds die algoritmes, er is een bepaalde regulering op komst dat ervoor zorgt dat die transparanter gaan moeten zijn waardoor dat we ook iets meer gaan weten welke informatie dat die juist naar boven gaan stuwen. En anderzijds ook, als we al bewust zijn van het feit dat we weten dat er propaganda is en we leren dat ook herkennen, gaan we ook die risico’s ervan beter kunnen inschatten.
Ik denk dat dat al zeker essentieel is om daar in die strijd tegen die desinformatie en de propaganda om al te weten wat het is en ik denk dat we daarop ook kunnen inzetten. Met mediawijs bijvoorbeeld, kijken we dan dat we jongeren sterker kunnen maken in het zien van die technieken die achter propaganda zitten en eenmaal dat je die kent, ga je die ook sneller herkennen in de informatie die je online ziet, leest en hoort. Ook in die video’s op YouTube bijvoorbeeld.
JW: Dus een bewustwording van het feit dat er propaganda aanwezig is op sociale media, op het internet, is een eerste belangrijke stap.
ZM: Ten eerste, weet wat het is. Het feit dat er mensen zijn die de publieke opinie willen beïnvloeden om op die manier uw denken en uw handelen te sturen en dan ook te zien dat daar heel vaak typische technieken worden gebruikt zoals bijvoorbeeld heel hard inspelen op uw emoties of echt ‘wij-zij’ denken, inspelen op noden van mensen, dat dat zo dingen zijn eenmaal dat je dat weet ga je dat ook herkennen. Dat is een belangrijke stap in uzelf daar tegen wapenen.
JW: wat is het belangrijkste kenmerk om propaganda video te herkennen en als je die dan herkent, wat kan je dan doen. Kan je er iets aan doen?
ZM: Ik denk dat hetgeen wat het meeste gebeurd, dat zowel positief als negatief, inspelen op je emoties. En dus wat wij altijd zeggen is als je naar een video kijkt je merkt dat dat echt iets doet met je emoties, dan moet je even stoppen, uitzoomen en het gewoon tot u laten komen en denken van waarom voel ik mij daar nu bijvoorbeeld zo boos of verdrietig over of wat doet dat met mij want het idee is dat als iets inspeelt op je emoties dat je daar zodanig door aangedaan bent, dat je dat eigenlijk veel sneller gaat geloven en gaat delen en dat is een beetje het probleem want eenmaal dat je het begint te delen dan denkt het algoritme: “Dat is iets wat veel mensen willen zien” en gaan ze dat omhoog stuwen.
Dan gaat natuurlijk die propaganda heel snel verspreiden. Dus ik denk dat idee van vanaf dat het iets met u doet, niet direct delen en gewoon laten liggen en dan opnieuw kijken. Dat is echt al een eerste stap om uzelf daartegen te wapenen.
JW: een beetje de emotie laten bedaren, verbreed je horizon misschien, kijk niet alleen op sociale media, kijk niet enkel op YouTube. Er zijn nog andere kanalen.
ZM: Ik denk dat het sowieso altijd goed is dat je meer dan één bron bekijkt of dat nu op sociale media is of dat dat iets van traditionele media is, dat je een keer bekijkt. Wat ze op de radio erover zeggen, wat ze op tv zeggen, wat ze in de krant zeggen. Je zoekt een andere nieuwssite op.
Maar het is ook heel belangrijk dat je eigenlijk zelf actief tegenstemmen gaat opzoeken, dus bijvoorbeeld: Je volgt een bepaalde politieke partij, misschien moet je ook eens de andere partij op het spectrum ook volgen om te zien wat zij daarover zeggen en zo ga je eigenlijk op een manier ook een beetje uw algoritme in de war brengen want je volgt niet alles in een zelfde lijn. Je zoekt op verschillende platformen verschillende tegenstemmen op en dat is eigenlijk heel dankbaar om zo veel mogelijk informatie over een thema of zoveel mogelijk perspectieven over informatie binnen te krijgen. Wat ook eigenlijk heel goed werkt, als je wat meer informatie of wat meer andere informatie binnen wilt krijgen, is af en toe uw zoekgeschiedenis wissen, uw cookies wissen, in een alternatieve browser opzoek gaan naar informatie zelfs in een alternatieve search engine zoals DuckDuckGo zoeken.
Dan ga je op YouTube al een hele andere startpagina krijgen omdat, dat niet bepaald wordt door een algoritme dat al uw persoonlijke informatie al heeft, dus ik zeg het je kan eigenlijk heel veel doen om propaganda niet perse helemaal tot bij u te laten komen.
JW: En niet alleen om die propaganda niet tot jou te laten komen maar eigenlijk zoals je het zo uitlegt om het algoritme een beetje op het verkeerde been te zetten?
ZM: Eigenlijk een van de belangrijkste dingen die je ook gewoon kan doen is een bericht negeren want als je er niet op reageert als je het niet liket, dan wordt het ook niet verder verspreid door een algoritme. Dus dat is een hele gemakkelijke, als je twijfelt, deel het gewoon niet en negeer het.
23.30
JW: dus ik onthoud: Een gevarieerd dieet van verschillende bronnen de emoties een beetje laten bedaren voor je iets deelt en bewust zijn van je eigen klik-en leesgedrag zodat desinformatie minder kans krijgt.
VO-Dankbetuigingen (verteller):
Deze podcast werd geproduceerd door Savoir Devenir in het kader van het Crossover-project, dat gefinancierd werd door de Europese Unie.
Verantwoordelijk voor het concept: Sophia Hamadi en Pascale Garreau. Verantwoordelijk voor de technische productie: Marieke Rimaux en BNA-BBOT. Verantwoordelijke voor de redactie: Savoir Devenir, bijgestaan door Apache. Voor meer info over deze podcast en het dashbord: Ga naar crossover.social