SG.hu

Olyan lassan töröl tartalmakat a Facebook, hogy az nem sokat számít

A Facebook idén év elején lazított a tartalommoderálási normáin, ami sok figyelmet és kritikát váltott ki. Egy új tanulmány azonban azt sugallja, hogy sokkal kevésbé számít, hogy mit vesznek le, mint az, hogy mikor.

A kutatás szerint az előírások megsértése vagy más okok miatt eltávolított Facebook-bejegyzéseket már legalább háromnegyed részben látták azok, akik az előrejelzések szerint valaha is látni fogják azokat. "A Facebookon a tartalom törlése nem számít olyan sokat, mert ahhoz nagyon sok időre van szükség” - mondta Laura Edelson, a Northeastern University informatikai tanszékének adjunktusa, a Journal of Online Trust and Safety című folyóiratban megjelent tanulmány vezető szerzője. A közösségi médiaplatformok általában azt mérik, hogy hány rossz posztot vettek le, amivel azt mutatják, hogy milyen erőfeszítéseket tesznek a káros vagy illegális anyagok visszaszorítására. A kutatók egy új mérőszámot javasolnak: hány embernél sikerült megakadályozni, hogy egy rossz posztot lásson azáltal, hogy a Facebook leveszi azt?

A Facebook tartalommoderálásából adódó „megakadályozott terjesztés” méréséhez a kutatók több mint 1,7 millió posztot gyűjtöttek össze hírekre fókuszáló Facebook-oldalakról, és azonosították közülük azt a mintegy 13 000 posztot, amelyet levettek. "Az eltávolított tartalmak, amelyeket láttunk, többnyire egyszerű spamek voltak - pénzügyi csalások, piramisjátékok hirdetései, ilyesmik” - mondta Edelson. A spamek és átverések túlsúlya kontextusba helyezi a tartalom moderálásáról és az online cenzúráról szóló heves nyilvános vitát.

Polgárjogi csoportok bírálták a Facebook tulajdonosát, a Metát, amiért nem szed le elég posztot. A Rágalmazásellenes Liga tavaly azt találta, hogy az antiszemita posztoknak csak egy elenyésző töredékét távolították el, hiába jelentették azokat. Leanna Garfield, a GLAAD LMBTQ+ érdekvédelmi szervezet munkatársa elmondta: „A Meta eljárása hetekig, néha hónapokig is eltarthat”, és hogy nagyon lassan vizsgálják meg az LMBTQ-ellenes szidalmakat és erőszakot hirdető posztokat. Az idei változtatások előtt a szabad véleménynyilvánítás hívei ezzel szemben kritizálták a céget, amiért túl sok tartalmat töröl. Kritikájuk szerint "az önkényes és tisztességtelen gyakorlatok csökkentik a felhasználók bizalmát mind a platformokba, mind az online véleménynyilvánítás szabadságának állapotába”. A Meta vezérigazgatója, Mark Zuckerberg egyetértett, mondván, hogy bár „sok rossz dolog van odakint”, a platform korábbi politikája „túl sok hibát és túl sok cenzúrát” okozott.

Az új kutatás arra emlékeztet, hogy a platformok akaratlanul is sok olyan posztot terjesztenek, amelyekről mindenki egyetért abban, hogy moderálásra érettek. A vállalat azt közölte, hogy a szabályait sértő tartalmak a platformon található összes tartalomnak csak egy elenyésző töredékét teszik ki, és hogy sok rossz tartalmat azelőtt blokkolnak, mielőtt elérhetők lennének azok másoknak. Azt is állítja, hogy jelentős erőfeszítéseket tesz a csalások és átverések megakadályozására.

Edelson és kollégái a Cybersecurity for Democracy kutatócsoportnál nem arra összpontosítottak, hogy egy eltávolítás indokolt volt-e, hanem arra, hogy mikor távolították el a posztokat. Csoportja 2023 júliusában mintegy 10 000 híroldal összes posztját azonosította, és két napon keresztül hat óránként adatokat gyűjtött arról, hogy a posztokat hányszor lájkolták, kommentálták vagy más módon foglalkoztak velük. A népszerű posztok fele kevesebb mint nyolc óra alatt kapta meg a reakciók felét, állapították meg. A tipikusan rossz posztot azonban csak több mint 20 óra elteltével távolították el.

Miután létrehoztak egy gépi tanulási modellt, amely megjósolja, hogy egy poszt két nap után várhatóan mennyi reakcióval fog rendelkezni, a kutatók arra a következtetésre jutottak, hogy a Facebook eltávolításai legfeljebb az eltávolított posztok előre jelzett elköteleződésének csak 24 százalékát akadályozták meg. (A tanulmány az elkötelezettséget a megtekintések helyettesítőjeként használja, mivel a Meta nem teszi közzé, hogy egy Facebook-posztot mennyien tekintettek meg. A Facebook azt sem hozza nyilvánosságra, hogy miért távolítottak el egy posztot, így lehetséges, hogy az eltávolított posztok egy részét maga a posztoló törölte).

Mindazonáltal az is tény, hogy a Facebooknak nehéz dolga van a káros posztok megtalálásában az elfogadható posztok tengerében, és még nehezebb ezt gyorsan megtenni. Edelson azt javasolja, hogy a szorosabb fókuszálás segítene. A Facebook jobban megjósolhatná, hogy algoritmusai mely posztokat fogják sok embernek megmutatni, és a moderátorok „előnyben részesíthetnék a magas előre jelzett jövőbeli nézettségű posztokat”. Ez talán nem egy csodafegyver, de segíthetne a Facebooknak csökkenteni a felhasználóknak mutatott káros tartalmak mennyiségét.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • wraithLord #2
    Ha már itt tartunk, én azért Youtube-on pl. jelentgetem a szar scam videókat, mert ha mást nem, azt elérem vele, hogy nem ajánlgatja őket az algoritmus annyira, és még kevesebben nézik meg. Ha lehet, akkor már a scam thumbnailnél jelentem, és rá se kattintok, mert a kattintással valószínűleg ellensúlyozom a reportolás hatását.
  • Merwenus #1
    nem is akarják törölni, nyilvánvaló scammer bot accountokat rendben találták, már nem is reportolom őket, minek.