Kifejezetten könnyű kijátszani, és rengeteget segítenek a TikTok algoritmusai azoknak, akik szex témában keresnek az első bejelentkezés után, még akkor is, ha csak 13 évesek. A Wall Street Journal azt kutatta, hogyan, és milyen gyorsan árasztja el a felnőtteknek szóló tartalom a gyerekek fiókját, és a TikTok, amit rengeteg fiatal használ, és gyakran hangsúlyozza, mennyire védi a kiskorúakat, hogyan tudja megóvni őket az egyértelműen korhatáros tartalmaktól.
A regisztrált fiatal 13 éveseknél, az első keresései között szerepelt az onylfans, az a közösségi oldal, ahol hemzsegnek a felnőtteknek szóló szexuális tartalmak, viszont a nézőszám növelése érdekében kevésbé explicit, ám még mindig erotikus tartalmak elérhetőek például a TikTokon is. A gondolat emögött az, hogy aki többet szeretne látni, azt a tartalomelőállítója könnyen át tudja csábítani az OnlyFans oldalára, ahol már közvetlenül neki fizet a tartalom eléréséért. Szóval a fiatal rákeres az ilyen, nevezzük kedvcsináló videókra, az algoritmus pedig figyel, és látja, hogy nézelődik. Miután visszatér a gyerekkorú felhasználó a főoldalra a neki ajánlott videóválogatáshoz, a táncolós és cuki állatos népszerű videók mellett az algoritmus beválogat számára egy rakás szexuális jellegű videót is. Az újság számtalan 13-15 évesnek beállított fiókkal játszott el hasonlót, az eredmény mindig ugyanaz volt, vagyis a gyerek szépen elindult lefelé a TikTok féregjáratán a szexuális és erőszakos, sokszor a TikTok szabályzatát is megszegő videók irányába.
Szex, drog és erőszak a gyerekeknek
A felhasználók a TikTok ezt az oldalát gyakran Kinktoknak is hívják, utalva az angol “kinky” szóra, amivel a nem szokványos szexuális szokások egyik gyűjtőneve. A gyerekeknek mutatott olyan videókat, amelyekben szerepjátékokban például beteg és gondozója létesít szexuális kapcsolatot, az egyikben egy idősebb férfi mondja egy latexruhába öltözött fiatalabb nőnek, hogy “Nem baj ha sírsz, apuci azt szereti”, de ide lehet sorolni a megkötözős vagy láncolós erotikus videókat is, és az erőszakos tartalmakat. Olyan videókat is megjelenítettek az algoritmusok, amelyek szexuális segédeszközök vásárlási lehetőségeiről szóltak, és olyanok is, amelyeket maguk a készítők is úgy soroltak be, hogy csak felnőtt felhasználók láthassák.
Egy szintén 13 évesként regisztrált fiók számára a nyomozás során legalább 569 olyan videót mutatott be, amelyen drogozás jelent meg, vagy utaltak a kokainra, metamfetaminra vagy éppen arra, hogyan lehet drogozáshoz használatos eszközöket vásárolni online. Hasonló tartalmú videók több más kiskorúként regisztrált fióknál is megjelentek. Szintén találkoztak olyan tartalmakkal, amik az alkoholfogyasztást vagy az étkezési zavarokat tüntették fel úgy, mintha azokkal semmi gond nem lenne.
A Wall Street Journal 974 olyan videót listázott ki a TikToknak, amelyek egyértelműen nem a 13-15 éves korosztálynak kellene, hogy szóljanak, és amiben drogfogyasztás és felnőtt tartalmak jelennek meg. Több száz olyan videó is szerepelt ezek között, amelyeket már a regisztráció után szinte rögtön meg is mutatott a fiatalkorúaknak. A videók közül 169 már az előtt elérhetetlenné vált, mielőtt elküldték volna, de nem tudni, hogy a tartalom előállító vette le, vagy fennakadt a moderátorokon. 255 videót az után távolítottak el, hogy elküldték azokat a TikToknak, ezek többsége a már fentebb is említett szerepjátékos videók, amelyekben gyakran visszatérő elem a gondviselő, és a szerep szerint a rábízott “gyerek” közti szexuális kapcsolat.
Az újság megkereste az egyik ilyen tartalom előállítóját, a nő pedig arról számolt be, hogy ő kifejezetten felnőttek számára állít elő tartalmat, ezt minden lehetséges helyen jelzi is, de abba nincs beleszólása, hogy a TikTok kiknek mutatja meg, ugyanakkor ő is örülne, ha a TikTok nagyobb körültekintéssel járna el. A tartalomelőállítók jelentős része egyértelműen közli, hogy a tartalmak nem gyerekek számára készültek, ennek ellenére a TikTok algoritmusa olyanoknak is ajánlja, akik a regisztrációjuk szerint kiskorúak.
A TikTok nem kommentálta az egyes videókat, viszont elmondta, hogy a legtöbb nem sérti meg a felhasználási feltételeket, ami igen, azt pedig eltávolították, de nem közölte, hogy ez pontosan hány videót érint. Továbbra is hangsúlyozták, hogy a gyerekek védelme kiemelten fontos a közösségi oldal számára.
A TikTok algoritmusainak működése
A közösségi oldal algoritmusai úgy működnek, hogy elég egy apró információ, már azzal is rengeteget tud kezdeni. Jelen esetben az, hogy ezeket a tartalmakat meddig nézi, esetleg újranézi-e, és itt tényleg igaz, hogy minden másodperc számít. Ebből pedig megtudja a felhasználók talán még számukra is titkos kedvenceit, és szépen lassan elindítja őket azon az úton, ami szinte csak arról a témáról szól. Ez egy olyan módszer, amit a többi közösségi oldal, például a Youtube inkább nem szeretne használni, mert sok kritika érte már emiatt. A gond itt az, hogy a TikTok algoritmusa ráadásul gyors is, vagyis az egész folyamat sokkal inkább felgyorsul, és már a regisztráció után nem sokkal elindul a folyamat.
A vizsgálat során 31 olyan profilt hoztak létre, amelyeknél a korosztályt 13-15 évesnek állították be, és különböző témákra kerestek rá, szimplán csak hashtagekkel. Az egyik ilyen profilt a drogozás érdekelte, már az első napon olyan videókat ajánlott, amelyeken az emberek például kenderültetvényt keresnek az erdőben, de láthatott marihuána inspirálta születésnapi tortát, majd a következő pár nap alatt a platform videóajánlatainak fő témája a drogozás lett. Szakértők szerint ez kifejezetten veszélyes olyan életkorban és élethelyzetben, ahol a gyerekek nem kapnak megfelelő segítséget egy felnőttől, hogy tudják, hogy amit látnak az mi, mivel jár, és könnyedén normalizálhatja a gyerek fejében a drogozást. Egy másik profilnak, amelyet úgy állítottak be, mintha a japán anime rajongója lenne, gyorsan elkezdett olyan animéket ajánlani, amelyben erőszak és szexuális tartalom szerepel. Volt olyan pont, hogy a kiskorú fióknak ajánlott videók 90 százalékát a kikötözős szex kategóriába lehetett sorolni. Egy másik fióknál 200 ajánlott videó majdnem 40 százaléka volt olyan tartalom, ahol a készítők is jelezték, hogy csak felnőtteknek szól, összesen 2800 ilyen bejegyzéssel találkoztak az újság által létrehozott kiskorúként regisztrált fiókok.
A TikTok szóvivője a problémára azt mondta, hogy a kísérlet szerintük nem adja vissza az igazi élményt, mivel a felhasználók nem csak egy dolog iránt érdeklődnek, illetve hozzátette, hogy igyekeznek folyamatosan felülvizsgálni, hogyan lehet biztonságosabb az applikáció a felhasználók, különös tekintettel a gyerekek számára, aki pedig úgy érzi, hogy egy ajánlott téma nem megfelelő számára, annak ott a lehetősége, hogy használja a “nem érdekel” visszajelzést. Szerinte egyébként nincs olyan algoritmus, ami ne követne el hibákat a moderálásban, egészen egyszerűen azért, mert iszonyatos mennyiségű videót töltenek fel az emberek, amivel képtelenség lépést tartani, ami a legutóbbi közlemények szerint egészen pontosan percenként több tízezer videót jelent.