A TikTok algoritmusa rendkívül érzékeny, és akár egyetlen videó interakció is a szélsőséges tartalmak felé terelheti a felhasználót – derül ki a The Guardian cikkéből. A lap újságírója egy teljesen új fiókot regisztrált a Tiktokra, majd megnézett egy olyan ajánlott videót, ami összefüggésben volt a nemrég Sydney-ben megkéselt Mar Mari Emmanuellel, és ezek után jöttek folyamatosan az először még normális keresztény konzervatív tartalmak, amik végül átfordultak szélsőségbe és homofóbiába a „Neked” (For You) oldalán. Volt ami egyenesen a drag queenek faaprítóba hajítására biztatott. A jelenség aggasztó, hiszen a TikTok rengeteg fiatalt ér el, akiknek még nem alakult ki a kritikai gondolkodásuk.
A cikk kiemeli, hogy a TikTok algoritmusa a felhasználók aktivitását figyeli, és az alapján alakítja a tartalomkínálatot. Ez azt jelenti, hogy egyetlen kattintás, lájk vagy kommentelés is drasztikusan megváltoztathatja a „Neked” oldalon megjelenő videók jellegét. A lap újságírója nem sokkal az LMBTQ témájú videó megtekintése után már olyan tartalmakat kapott, amelyek a gyűlöletbeszéd határát súrolták.
Ez a jelenség különösen veszélyes lehet a fiatalabb generáció számára, akik még nem rendelkeznek kellő tapasztalattal és kritikai gondolkodással ahhoz, hogy kiszűrjék a káros tartalmakat. A TikTok algoritmusa így akaratlanul is egyfajta „visszhangkamrát” hozhat létre, ahol a felhasználók egyre szélsőségesebb és egyoldalúbb tartalmakkal találkoznak.
A The Guardian cikke felhívja a figyelmet a TikTok algoritmusának esetleges veszélyeire, és hangsúlyozza a tudatos tartalomfogyasztás fontosságát. A lap szerint fontos lenne, hogy a platform átláthatóbbá tegye algoritmusának működését, és nagyobb hangsúlyt fektessen a káros tartalmak kiszűrésére.
A cikk rávilágít arra, hogy a közösségi média platformoknak felelősséget kell vállalniuk a felhasználókra gyakorolt hatásukért. A TikTok algoritmusa – bár szórakoztató és érdekes tartalmakat is kínálhat – könnyen válhat a szélsőségek és a gyűlöletbeszéd melegágyává, ha nem kezelik körültekintően.