SG.hu
Minden, amit a közösségi média "shadowbanról" tudni lehet
Nincs rá magyar szó, talán "árnyéktilalom" vagy „algoritmikus elnyomás". A lényege, hogy mi nem látszik a közösségi platformokon. Ez cenzúra, tartalommoderálás vagy valami más?
Előfordult már, hogy egy közösségi oldalra kirakott posztodra semmilyen lájk vagy komment nem érkezett? És elgondolkodtál ekkor azon, hogy vajon a mindent látó algoritmus büntet téged? A közösségi alkalmazásokat ismerőseink megosztásaiért, hírekért, politikai vitákért és egyéb naprakész információkért használjuk, de azt, hogy mit látunk, arról olyan algoritmusok döntenek, amelyek megpróbálják előnyben részesíteni azokat a tartalmakat, amelyek érzelmeket váltanak ki belőlünk, miközben rendszeres időközönként hirdetéseket mutatnak nekünk.
Az, hogy ezek az algoritmusok hogyan hozzák meg a döntéseket, nagyrészt egy fekete doboz, és a kritikusok régóta sürgetik a közösségi médiavállalatokat, hogy legyenek átláthatóbbak. Jelentős politikai személyiségek vádolják azzal a vállalatokat, hogy azok algoritmusok segítségével cenzúrázzák a közbeszédet, míg a hétköznapi felhasználók attól tartanak, hogy a bejegyzéseiket elfogult kritériumok alapján elnyomják. Senki nem tudja mikor jelenik meg egy poszt a hírfolyamban, és még kevesebbeknek van bizonyítékuk arra, hogy a bejegyzését shadowbannal eltüntették. Az „árnyékbannolás” kifejezés 2017 körül jelent meg, és leírja azt, amit a felhasználók szerint a közösségi médiavállalatok alattomos módon csinálnak: elrejtenek egyes bejegyzéseket, anélkül, hogy felvállalnák a törlését.
Manapság a vállalatok inkább az „ajánló irányelvek” kifejezést részesítik előnyben, míg egyes technológiai kritikusok az „algoritmikus elnyomás” kifejezést használják. Mivel az algoritmusok döntéshozó gépek, egy poszt megjelenítése azt jelenti, hogy egy másik nem jelenik meg. A vállalatok azonban azt mondják, hogy a felhasználók biztonsága és érzékenysége miatt is korlátozzák a tartalmat. A TikTok, az Instagram, a YouTube, a Snapchat és a Twitch például korlátozza az általuk gyerekeknek nem megfelelőnek ítélt tartalmak elérését. Néhány ilyen szabály egyértelmű: nem lehet lőfegyvereket vagy illegális anyagokat bemutatni.
Mások zavarosak: a TikTok-on például bármely korosztály bekapcsolhatja a „Korlátozott módot”, amely kizárja a „fenyegető képeket” vagy „összetett témákat” bemutató videókat. A TikTok emellett lehetővé teszi, hogy a For You oldal algoritmusainál bármely korú felhasználó kikapcsolja az „aktuális témák” tárcsáját. Általánosan igaz, hogy a közösségi alkalmazások általában igyekeznek korlátozni azokat a tartalmakat, amelyek miatt bajba kerülhetnek a felhasználóknál vagy a hirdetőknél. Miután például arról érkeztek jelentések, hogy a YouTube ajánlásai egyre gyűlöletkeltőbb videók felé terelik a nézőket, az alkalmazás elkezdte blokkolni a neonáci videókat.
A közösségi médiavállalatok általában visszautasítják azokat az állításokat, amelyek szerint cenzúrázzák a politikai közbeszédet. Idén azonban a Meta szakított az eddig gyakorlattal, és nyíltan kijelentette, hogy korlátozza a politikai tartalmakat az alkalmazásaiban. Azt azonban a társaság nem árulta el, hogy pontosan mely szavak és gondolatok számítanak politikaiaknak. "Ahogy azt már évek óta mondjuk, az emberek kevesebb politikát szeretnének látni, ugyanakkor a platformjainkon továbbra is lehetőségük van politikai tartalmakkal foglalkozni, ha akarnak - és pontosan ezt tettük” - mondta Corey Chambliss, a Meta szóvivője egy nyilatkozatban.
Az, hogy milyen típusú tartalmak tartoznak ebbe a „megengedett, de nem reklámozható” keretbe az az alkalmazástól függ. A YouTube szerint ha egy videó nem sérti az alkalmazás közösségi irányelveit, de „közel áll” ahhoz, hogy ezt tegye, akkor az nem alkalmas az algoritmikus ajánlásra. Tehát ha egy aktuálpolitikai témájú videó közel áll ahhoz, hogy félretájékoztatás legyen, de nem lépi át a határt, akkor is lepontozhatják - mondta a YouTube szóvivője, azonban nem volt hajlandó példát mondani olyan állításra, amely közel áll a félretájékoztatáshoz.
A Meta ugyan nyíltan kijelentette, hogy korlátozza a politikai tartalmakat, nem ismert, hogy konkrét kulcsszavaknál, többek között az „abortusz” és a „szavazás” címkéknél mit tesz. A YouTube szerint a választási tartalmak rendben vannak, kivéve, ha „közel állnak ahhoz, hogy megsértsenek” egy irányelvet - de a cég nem volt hajlandó példát mondani. A Snapchat-on csak az előre jóváhagyott alkotók tárgyalhatnak „politikai tartalmakat”, beleértve a választásokat vagy az érdekérvényesítést az alkalmazás Spotlight nevű rövid formátumú videó szekciójában, de bárki tárgyalhat választásokról, és a Discover fülön ajánlást kaphat.
A TikTok és a Snap figyelmezteti az alkotókat, ha egy poszt nem alkalmas az ajánlásra, míg a népszerű streaming alkalmazás, a Twitch figyelmezteti az alkotókat, ha nem címkéznek megfelelően egy olyan videót, amely potenciálisan nem megfelelő a fiatalabb nézők számára. Az Instagramon, a Facebookon, a YouTube-on vagy az X-en azonban egy poszt elérését anélkül korlátozhatják, hogy a posztoló tudná, miért - vagy egyáltalán, hogy ez megtörténik.
Vita tárgya, hogy a közösségi médiavállalatoknak korlátozniuk kellene-e bizonyos tartalmak elérését. Egyes gyermekvédő szervezetek szigorúbb korlátozásokra szólítanak fel, hogy megvédjék a gyerekeket attól, hogy túl korán találkozzanak érett tartalmakkal. James Steyer, a Common Sense Media, a gyermekek online biztonságával foglalkozó nonprofit szervezet alapítója és vezérigazgatója elmondta, hogy olyan jogszabályokat szeretne, amelyek arra kényszerítik a vállalatokat, hogy vállaljanak felelősséget az oldalaikon megjelenő veszélyes vagy korhatárhoz nem illő tartalmakért.
Az Electronic Frontier Foundation nevű, az adatvédelemmel foglalkozó nonprofit szervezet az általa „árnyékszabályozásnak” nevezett jelenség ellen szólalt fel, azaz amikor a vállalatok a bírósági rendszeren kívül döntenek arról, hogy milyen beszédet engedélyeznek az interneten. Az X tulajdonosa, Elon Musk azt mondta, hogy a szólásszabadság érdekében az alkalmazás nem cenzúrázza a politikai véleményeket. Az alkalmazás azonban több kormány által elrendelt törlésnek tett eleget, mint Musk tulajdonlása előtt bármikor, és a kritikusok szerint Musk és csapata egyoldalúan, személyes hovatartozás alapján dönt a tartalom moderálásáról. A TikTok és a Twitch az alkotók teljes fiókját törölhetik, ha posztjaik ismételten megszegik az ajánlott tartalmakra vonatkozó szabályokat. A YouTube és a Snap csak az adott tartalmat szorítja vissza, de az nem befolyásolja a fiók egészét. Mindazonáltal általános, hogy egy közösségi alkalmazásból érkező dorgálás az alkotó közönségének csökkenését okozza.
Előfordult már, hogy egy közösségi oldalra kirakott posztodra semmilyen lájk vagy komment nem érkezett? És elgondolkodtál ekkor azon, hogy vajon a mindent látó algoritmus büntet téged? A közösségi alkalmazásokat ismerőseink megosztásaiért, hírekért, politikai vitákért és egyéb naprakész információkért használjuk, de azt, hogy mit látunk, arról olyan algoritmusok döntenek, amelyek megpróbálják előnyben részesíteni azokat a tartalmakat, amelyek érzelmeket váltanak ki belőlünk, miközben rendszeres időközönként hirdetéseket mutatnak nekünk.
Az, hogy ezek az algoritmusok hogyan hozzák meg a döntéseket, nagyrészt egy fekete doboz, és a kritikusok régóta sürgetik a közösségi médiavállalatokat, hogy legyenek átláthatóbbak. Jelentős politikai személyiségek vádolják azzal a vállalatokat, hogy azok algoritmusok segítségével cenzúrázzák a közbeszédet, míg a hétköznapi felhasználók attól tartanak, hogy a bejegyzéseiket elfogult kritériumok alapján elnyomják. Senki nem tudja mikor jelenik meg egy poszt a hírfolyamban, és még kevesebbeknek van bizonyítékuk arra, hogy a bejegyzését shadowbannal eltüntették. Az „árnyékbannolás” kifejezés 2017 körül jelent meg, és leírja azt, amit a felhasználók szerint a közösségi médiavállalatok alattomos módon csinálnak: elrejtenek egyes bejegyzéseket, anélkül, hogy felvállalnák a törlését.
Manapság a vállalatok inkább az „ajánló irányelvek” kifejezést részesítik előnyben, míg egyes technológiai kritikusok az „algoritmikus elnyomás” kifejezést használják. Mivel az algoritmusok döntéshozó gépek, egy poszt megjelenítése azt jelenti, hogy egy másik nem jelenik meg. A vállalatok azonban azt mondják, hogy a felhasználók biztonsága és érzékenysége miatt is korlátozzák a tartalmat. A TikTok, az Instagram, a YouTube, a Snapchat és a Twitch például korlátozza az általuk gyerekeknek nem megfelelőnek ítélt tartalmak elérését. Néhány ilyen szabály egyértelmű: nem lehet lőfegyvereket vagy illegális anyagokat bemutatni.
Mások zavarosak: a TikTok-on például bármely korosztály bekapcsolhatja a „Korlátozott módot”, amely kizárja a „fenyegető képeket” vagy „összetett témákat” bemutató videókat. A TikTok emellett lehetővé teszi, hogy a For You oldal algoritmusainál bármely korú felhasználó kikapcsolja az „aktuális témák” tárcsáját. Általánosan igaz, hogy a közösségi alkalmazások általában igyekeznek korlátozni azokat a tartalmakat, amelyek miatt bajba kerülhetnek a felhasználóknál vagy a hirdetőknél. Miután például arról érkeztek jelentések, hogy a YouTube ajánlásai egyre gyűlöletkeltőbb videók felé terelik a nézőket, az alkalmazás elkezdte blokkolni a neonáci videókat.
A közösségi médiavállalatok általában visszautasítják azokat az állításokat, amelyek szerint cenzúrázzák a politikai közbeszédet. Idén azonban a Meta szakított az eddig gyakorlattal, és nyíltan kijelentette, hogy korlátozza a politikai tartalmakat az alkalmazásaiban. Azt azonban a társaság nem árulta el, hogy pontosan mely szavak és gondolatok számítanak politikaiaknak. "Ahogy azt már évek óta mondjuk, az emberek kevesebb politikát szeretnének látni, ugyanakkor a platformjainkon továbbra is lehetőségük van politikai tartalmakkal foglalkozni, ha akarnak - és pontosan ezt tettük” - mondta Corey Chambliss, a Meta szóvivője egy nyilatkozatban.
Az, hogy milyen típusú tartalmak tartoznak ebbe a „megengedett, de nem reklámozható” keretbe az az alkalmazástól függ. A YouTube szerint ha egy videó nem sérti az alkalmazás közösségi irányelveit, de „közel áll” ahhoz, hogy ezt tegye, akkor az nem alkalmas az algoritmikus ajánlásra. Tehát ha egy aktuálpolitikai témájú videó közel áll ahhoz, hogy félretájékoztatás legyen, de nem lépi át a határt, akkor is lepontozhatják - mondta a YouTube szóvivője, azonban nem volt hajlandó példát mondani olyan állításra, amely közel áll a félretájékoztatáshoz.
A Meta ugyan nyíltan kijelentette, hogy korlátozza a politikai tartalmakat, nem ismert, hogy konkrét kulcsszavaknál, többek között az „abortusz” és a „szavazás” címkéknél mit tesz. A YouTube szerint a választási tartalmak rendben vannak, kivéve, ha „közel állnak ahhoz, hogy megsértsenek” egy irányelvet - de a cég nem volt hajlandó példát mondani. A Snapchat-on csak az előre jóváhagyott alkotók tárgyalhatnak „politikai tartalmakat”, beleértve a választásokat vagy az érdekérvényesítést az alkalmazás Spotlight nevű rövid formátumú videó szekciójában, de bárki tárgyalhat választásokról, és a Discover fülön ajánlást kaphat.
A TikTok és a Snap figyelmezteti az alkotókat, ha egy poszt nem alkalmas az ajánlásra, míg a népszerű streaming alkalmazás, a Twitch figyelmezteti az alkotókat, ha nem címkéznek megfelelően egy olyan videót, amely potenciálisan nem megfelelő a fiatalabb nézők számára. Az Instagramon, a Facebookon, a YouTube-on vagy az X-en azonban egy poszt elérését anélkül korlátozhatják, hogy a posztoló tudná, miért - vagy egyáltalán, hogy ez megtörténik.
Vita tárgya, hogy a közösségi médiavállalatoknak korlátozniuk kellene-e bizonyos tartalmak elérését. Egyes gyermekvédő szervezetek szigorúbb korlátozásokra szólítanak fel, hogy megvédjék a gyerekeket attól, hogy túl korán találkozzanak érett tartalmakkal. James Steyer, a Common Sense Media, a gyermekek online biztonságával foglalkozó nonprofit szervezet alapítója és vezérigazgatója elmondta, hogy olyan jogszabályokat szeretne, amelyek arra kényszerítik a vállalatokat, hogy vállaljanak felelősséget az oldalaikon megjelenő veszélyes vagy korhatárhoz nem illő tartalmakért.
Az Electronic Frontier Foundation nevű, az adatvédelemmel foglalkozó nonprofit szervezet az általa „árnyékszabályozásnak” nevezett jelenség ellen szólalt fel, azaz amikor a vállalatok a bírósági rendszeren kívül döntenek arról, hogy milyen beszédet engedélyeznek az interneten. Az X tulajdonosa, Elon Musk azt mondta, hogy a szólásszabadság érdekében az alkalmazás nem cenzúrázza a politikai véleményeket. Az alkalmazás azonban több kormány által elrendelt törlésnek tett eleget, mint Musk tulajdonlása előtt bármikor, és a kritikusok szerint Musk és csapata egyoldalúan, személyes hovatartozás alapján dönt a tartalom moderálásáról. A TikTok és a Twitch az alkotók teljes fiókját törölhetik, ha posztjaik ismételten megszegik az ajánlott tartalmakra vonatkozó szabályokat. A YouTube és a Snap csak az adott tartalmat szorítja vissza, de az nem befolyásolja a fiók egészét. Mindazonáltal általános, hogy egy közösségi alkalmazásból érkező dorgálás az alkotó közönségének csökkenését okozza.