Het algoritme van TikTok is erg gevoelig – en kan je voor je het weet in een konijnenhol vol haat sturen | TikTok

THet ikTok-algoritme werkt op mysterieuze manieren, maar het lege account-experiment van Guardian Australia laat zien hoe snel een nieuwe gebeurtenis gebruikers in een conservatief christelijk, anti-immigratie-konijnenhol kan leiden.

Vorige week berichtten we hoe de algoritmen van Facebook en Instagram jonge mannen naar de manosfeer lokken. Deze week onderzoeken we wat er gebeurt als het TikTok-algoritme op een leeg account wordt uitgevoerd zonder enige interactie zoals vind-ik-leuks of reacties.

In april maakte Guardian Australia een nieuw TikTok-account aan op een volledig lege smartphone gekoppeld aan een nieuw, ongebruikt e-mailadres. John Doe werd geprofileerd als een algemene 24-jarige man. We beoordeelden de feed elke paar weken.

In eerste instantie was het moeilijk om een ​​duidelijk thema te identificeren voor de video die via de app werd aangeboden. Vervolgens vond op 15 april een mesaanval plaats op de Wakeley Church.

Gedurende de eerste twee dagen van het experiment bood TikTok algemene inhoud aan over Melbourne, waar de telefoon zich bevond, samen met iPhone-hackvideo’s – de typische inhoud die je als iPhone-bezitter op TikTok zou verwachten.

Na de aanval op hem in april verschenen er video’s van de conservatieve christelijke preken van Mar Mari Emmanuel op de For You-pagina op een lege rekening geopend door Guardian Australia. Foto: afgeleverd

Op de derde dag begon TikTok-nieuwsinhoud te verschijnen, die samenviel met de mesaanval op bisschop Mar Mari Emmanuel in de Assyrische Kerk van Christus de Goede Herder in de buitenwijk Wakeley in Sydney.

Het waren niet de beelden van de steekpartij zelf, maar video’s van Emmanuels suggestieve en conservatieve christelijke preken. Hun kijkgedrag lijkt het algoritme van TikTok te hebben geactiveerd – steeds meer van zijn preken werden opgediend en conservatieve christelijke video’s verschenen de een na de ander.

Drie maanden later biedt het algoritme nog steeds conservatieve christelijke inhoud aan, samen met video’s die pro-Pauline Hanson, pro-Donald Trump, anti-immigranten en anti-LGBTQ zijn – waaronder één video die suggereert dat een drag queen in een logboek moet worden gegooid .

Net als bij het experiment dat parallel werd uitgevoerd op Instagram- en Facebook-accounts, werden er geen berichten geliked of becommentarieerd. Maar in tegenstelling tot dat experiment lijkt het algoritme van TikTok veel gevoeliger te zijn voor zelfs de kleinste interactie – inclusief de tijd die wordt besteed aan het kijken naar een video. Gebruikers krijgen vergelijkbare inhoud doorgestuurd, tenzij u aangeeft dat u niet geïnteresseerd bent.

“Hoe meer iemand welk type inhoud dan ook op TikTok zoekt of consumeert, hoe meer ze zullen zien”, aldus een TikTok-woordvoerder. “Maar je kunt op elk moment je feed volledig vernieuwen, of ons laten weten dat je niet geïnteresseerd bent in een bepaalde video, door lang op het scherm te drukken en ‘niet geïnteresseerd’ te selecteren.”

Jing Zeng, assistent-professor computercommunicatiewetenschap aan de Universiteit van Zürich, zegt dat er veel willekeur zit in het ‘voor jou’-algoritme van TikTok, en dat vroege interacties sterke gevolgen kunnen hebben voor wat je ziet.

“Als hun eerste pro-Trump-video ‘je zou laten kijken’, dan zou het ‘voor jou’-algoritme meer van dergelijke inhoud kunnen testen.”

sla de nieuwsbriefpromotie over

Jordan McSwiney, senior onderzoeker aan het Center for Deliberative Democracy and Global Governance van de Universiteit van Canberra, zegt dat de aanpak van TikTok verschilt van die van Facebook en Instagram omdat het een actiever aanbevelingssysteem heeft, ontworpen om gebruikers betrokken te houden bij de ene video na de andere. Hij zegt dat Meta dit naar zijn Reels-product brengt, dat veel van dezelfde functies heeft als TikTok.

Een voorbeeld van inhoud die wordt weergegeven op de For You TikTok-pagina op een leeg account dat is geplaatst door Guardian Australia. Foto: afgeleverd

“We weten dat deze platforms niet met enige vorm van sociale licentie werken. Het is geen openbare show of zoiets. Ze zijn tot één ding verplicht, en dat is hun essentie”, zegt hij.

“Hun modus operandi is niet het faciliteren van een genuanceerd debat, maar het bevorderen van een gezonde democratische publieke sfeer.” Het creëert inhoud waar mensen op blijven klikken, om de app in de gaten te houden, om mensen te laten scrollen, want dat zijn advertentie-inkomsten.”

McSwiney zegt dat overheden een rol kunnen spelen bij het dwingen van technologieplatforms om transparanter te zijn over de manier waarop algoritmen werken, aangezien ze momenteel in een ‘black box’ bestaan, met beperkte mogelijkheden voor onderzoekers om te zien hoe ze werken.

Hij zegt dat platforms de zorgen over wat er wordt geserveerd niet kunnen afdoen als louter een weerspiegeling van de samenleving waarin ze opereren.

‘Ik denk gewoon niet dat we miljardenbedrijven zo moeten laten gaan. Ze hebben een sociale verantwoordelijkheid om ervoor te zorgen dat hun platforms geen schade aanrichten – hun platforms mogen geen seksistische inhoud promoten, [and] mag geen racistische inhoud promoten.”