Berta Sándor
Nem elég hatékony a Facebook tartalomtörlő algoritmusa
A szoftver nem ismeri fel jól a vitatható felvételeket és nem is törli azok mindegyikét.
A The Wall Street Journal a Facebook Files című cikksorozat részeként jelentette meg azt az anyagot, amely a közösségi platform által alkalmazott automatikus gyűlöletbeszéd-felismerő rendszer hatékonyságát kérdőjelezte meg. Az újság Frances Haugen egykori menedzser által kiszivárogtatott belső dokumentumokra hivatkozva azt írta, hogy a használt mesterséges intelligencia csak minimális sikert ért el a gyűlöletbeszédek, az erőszakot megjelenítő és más problémás videók eltávolításának a területén.
A 2019-es iratok alapján nehézséget okozott a véres kakasviadalokat és az autóbaleseteket mutató tartalmak azonosítása és kiszűrése, de ugyanígy problémás volt a lövöldözésekről szóló felvételek felismerése vagy azok és egy autómosós anyag összekeverése, tévesen értelmezése. 2019-ben egy Facebook-kutató úgy becsülte, hogy a mesterséges intelligencia csak a gyűlöletvideók kettő százalékát ismerte fel és törölte. Idén nyáron a vállalat egy másik csoportja ezt az arányt 3-5 százalékra becsülte, míg az erőszak elleni irányelvet megsértő és más tartalmak esetében csak 0,6 százalékra.
A Facebook visszautasította az állításokat, mondván nem az a fontos, hogy mennyi felvételt töröl a mesterséges intelligencia, hanem az anyagok terjedése, vagyis, hogy hány videót látnak valójában a felhasználók. Ez az arány 0,05 százalék, vagyis 10 000 megtekintett tartalomból csak 5 a gyűlöletbeszéd.
Guy Rosen, a Facebook integritásért felelős alelnöke a blogbejegyzésében azt írta, hogy automatikusan csak az egyértelmű eseteket törlik. Meg kell bizonyosodniuk arról, hogy valóban gyűlöletbeszédről van-e szó, mielőtt valamit eltávolítanak. Amennyiben csak lehet, hogy az, de nem biztos, akkor a jelenlegi technika képes csökkenteni a terjesztését vagy nem javasol olyan csoportokat, oldalakat és felhasználókat, akik rendszeresen ilyen bejegyzéseket tesznek közzé. Ezenkívül vannak módszereik az olyan felvételek megjelölésére, amelyeket manuálisan kell átvizsgálni.
A The Wall Street Journal erre úgy reagált, hogy sokan átcsúsznak a szűrőkön és a Facebook számos számot megszépített. 2019-ben például nem csak a külső moderálási csoporttagok munkaóráit csökkentette, hanem egy új algoritmust kezdett alkalmazni, amely oda vezetett, hogy számos felhasználó bejegyzései egyszerűen ignorálva lettek, mert a rendszer valószínűtlennek tartotta a jogsértést. Ezzel párhuzamosan a panasztételi folyamat is bonyolultabb lett, ami miatt sokkal kevesebb vitatott anyagot jelentettek. Az óriáscég szóvivője erre azt mondta, hogy mindennek a rendszer hatékonyságát kellett volna növelnie, ehelyett kénytelenek voltak a panasztétel során visszatérni az eredeti eljárásrendhez.
A The Wall Street Journal a Facebook Files című cikksorozat részeként jelentette meg azt az anyagot, amely a közösségi platform által alkalmazott automatikus gyűlöletbeszéd-felismerő rendszer hatékonyságát kérdőjelezte meg. Az újság Frances Haugen egykori menedzser által kiszivárogtatott belső dokumentumokra hivatkozva azt írta, hogy a használt mesterséges intelligencia csak minimális sikert ért el a gyűlöletbeszédek, az erőszakot megjelenítő és más problémás videók eltávolításának a területén.
A 2019-es iratok alapján nehézséget okozott a véres kakasviadalokat és az autóbaleseteket mutató tartalmak azonosítása és kiszűrése, de ugyanígy problémás volt a lövöldözésekről szóló felvételek felismerése vagy azok és egy autómosós anyag összekeverése, tévesen értelmezése. 2019-ben egy Facebook-kutató úgy becsülte, hogy a mesterséges intelligencia csak a gyűlöletvideók kettő százalékát ismerte fel és törölte. Idén nyáron a vállalat egy másik csoportja ezt az arányt 3-5 százalékra becsülte, míg az erőszak elleni irányelvet megsértő és más tartalmak esetében csak 0,6 százalékra.
A Facebook visszautasította az állításokat, mondván nem az a fontos, hogy mennyi felvételt töröl a mesterséges intelligencia, hanem az anyagok terjedése, vagyis, hogy hány videót látnak valójában a felhasználók. Ez az arány 0,05 százalék, vagyis 10 000 megtekintett tartalomból csak 5 a gyűlöletbeszéd.
Guy Rosen, a Facebook integritásért felelős alelnöke a blogbejegyzésében azt írta, hogy automatikusan csak az egyértelmű eseteket törlik. Meg kell bizonyosodniuk arról, hogy valóban gyűlöletbeszédről van-e szó, mielőtt valamit eltávolítanak. Amennyiben csak lehet, hogy az, de nem biztos, akkor a jelenlegi technika képes csökkenteni a terjesztését vagy nem javasol olyan csoportokat, oldalakat és felhasználókat, akik rendszeresen ilyen bejegyzéseket tesznek közzé. Ezenkívül vannak módszereik az olyan felvételek megjelölésére, amelyeket manuálisan kell átvizsgálni.
A The Wall Street Journal erre úgy reagált, hogy sokan átcsúsznak a szűrőkön és a Facebook számos számot megszépített. 2019-ben például nem csak a külső moderálási csoporttagok munkaóráit csökkentette, hanem egy új algoritmust kezdett alkalmazni, amely oda vezetett, hogy számos felhasználó bejegyzései egyszerűen ignorálva lettek, mert a rendszer valószínűtlennek tartotta a jogsértést. Ezzel párhuzamosan a panasztételi folyamat is bonyolultabb lett, ami miatt sokkal kevesebb vitatott anyagot jelentettek. Az óriáscég szóvivője erre azt mondta, hogy mindennek a rendszer hatékonyságát kellett volna növelnie, ehelyett kénytelenek voltak a panasztétel során visszatérni az eredeti eljárásrendhez.