Az Instagram algoritmusai aktívan népszerűsítik a pedofilok hálózatait, akik a Meta népszerű képmegosztó alkalmazásában gyermekek szexuális zaklatását használó tartalmakat rendelnek és adnak el.
A The Wall Street Journal, valamint a Stanford Egyetem és a Massachusetts Amherst Egyetem oktatóinak közös vizsgálata feltárta, hogy az Instagram ajánlási rendszerei milyen mértékben kötik össze a pedofilokat, és elvezetik őket a tartalomeladókhoz.
A kutatók által talált fiókokat olyan kirívó és kifejezett hashtagekkel hirdetik, mint a #pedowhore, #preteensex és #pedobait. Tartalmak „menüit” kínálják a felhasználók számára, amelyeket megvásárolhatnak vagy megbízhatnak, beleértve az önkárosító és állatiasságról szóló videókat és képeket. Amikor a kutatók létrehoztak egy tesztfiókot, és megnézték az e hálózatok által megosztott tartalmakat, azonnal javasolták nekik, hogy kövessenek további fiókokat. Ahogy a WSJ beszámol: „Egy maroknyi ajánlás betartása elég volt ahhoz, hogy egy tesztfiókot elárasszuk olyan tartalommal, amely gyermekeket szexualizál.”
A jelentésre reagálva a Meta közölte, hogy belső munkacsoportot hoz létre a vizsgálat által felvetett problémák kezelésére. „A gyermekek kizsákmányolása szörnyű bűncselekmény” – mondta a cég. „Folyamatosan vizsgáljuk, hogyan lehet aktívan védekezni ez ellen a viselkedés ellen.”
A Meta megjegyezte, hogy csak januárban 490 000 fiókot törölt, amelyek megsértették gyermekbiztonsági irányelveit, és az elmúlt két évben 27 pedofil hálózatot távolított el. A Facebookot és a WhatsApp-ot is birtokló cég azt mondta, hogy blokkolta a gyermekek szexualizálásához kapcsolódó hashtagek ezreit, és korlátozta ezeket a kifejezéseket a felhasználói keresésekben.
Alex Stamos, a Stanford Internet Observatory vezetője és a Meta korábbi biztonsági igazgatója azt mondta a WSJ-nek , hogy a vállalat többet tehet és kell is tennie a probléma megoldása érdekében. „Ha egy három, korlátozott hozzáférésű akadémikusból álló csapat ilyen hatalmas hálózatot talál, az riaszthatná a Metát” – mondta Stamos.
Az Instagram ajánlási algoritmusaival kapcsolatos problémák mellett a vizsgálat azt is megállapította, hogy az oldal moderálási gyakorlata gyakran figyelmen kívül hagyta vagy elutasította a gyermekbántalmazási anyagokkal kapcsolatos bejelentéseket.
A WSJ beszámol azokról az incidensekről, amikor a felhasználók gyanús tartalmat tartalmazó bejegyzésekről és fiókokról jelentettek, csak azért, hogy a tartalmat az Instagram ellenőrző csapata törölje, és automatizált üzenetet kaptak: „Mivel rengeteg bejelentést kapunk, csapatunk nem tudta felülvizsgálni ezt a bejegyzést.” A Meta azt nyilatkozta a Journalnak, hogy lépéseket tett ezekkel a jelentésekkel kapcsolatban, és felülvizsgálja belső folyamatait.
Forrás: The Verge