Továbbra sem csillapodnak a kedélyek a facebook körül, legalábbis úgy tűnik, hogy még mindig vannak a Wall Street Journal birtokában olyan információk, amelyekkel kellemetlen perceket tudnak szerezni a közösségi oldalnak.
Most éppen az derült ki, hogy az erőszakos és zaklató tartalmakat kiszűrő mesterséges intelligenciával támogatott algoritmusok tulajdonképpen hasznavehetetlenek. Mikor időről-időre szót emelnek a hús-vér moderátorok az ellen, hogy semmifajta mentális támogatást nem kapnak azok után, hogy napi 8 órában a legbrutálisabb kegyetlenkedéseket dobálja eléjük a gép, a legtöbbször az a válasz, hogy a mesterséges intelligencia segít. Most azonban kiderült, hogy ez a segítség még nagyon távol van.
A kiszivárgott információk szerint a gyűlöletbeszédek 3-6 százalékát, az erőszakos tartalmak 0,6 százalékát sikerült kiszűrnie a mesterséges intelligenciának. Példának azt hozták, ami a jelentésben is szerepel, hogy a mesterséges intelligencia a tömegmészárlásokat vagy szórakoztató paintball játékként vagy éppen autómosós videóként jelöli meg.
A Facebook reagált a vádakra, szerintük rossz a mérőszám, amivel az újság számolt, mert azt kellene nézni, hogy eleve kiszűrik az algoritmusok a kártékony tartalmak 97 százalékát már az előtt, hogy azok a felhasználók elé kerülhetnének.
Forrás: Arstechnica, BBC