SG.hu
A Facebook algoritmusa hatással van ránk, de nem tudja megváltoztatni a véleményünket
Négy új tanulmány jelent meg a közösségi média algoritmusainak az emberek meggyőződését befolyásoló hatásáról. A Facebook és az Instagram algoritmusaival végzett kísérletek alapján készült szakcikkek eredményei szerint a közösségi platformok ugyan befolyásoló szereppel bírnak, de nem képesek a vélemények megváltoztatására. Ez alapvetően megkérdőjelezi a káros tartalmak online terjedésének ellenőrzésére vonatkozó általános narratívákat.
A Facebook és társoldala, az Instagram egy gépi intelligenciával működő algoritmust használ arra, hogy tartalmakat juttasson el a felhasználókhoz ahelyett, hogy a barátok posztjainak egyszerű, időrendi hírfolyamát kínálná. Az algoritmus növeli az oldalon eltöltött időt, a posztok iránti elkötelezettséget, és ennek következtében a hirdetők bevételeit. Ezek az algoritmusok határozzák meg, hogy emberek milliárdjai milyen tartalmakat látnak a közösségi hálózatokon, ezért ezek évek óta a törvényhozók, aktivisták és a szabályozó hatóságok célkeresztjében vannak. Az Európai Unió új törvényt is hozott, a DSA-t, melynek vezérelve az átláthatóság, de már most tudni lehet, hogy ennek betartatása nem lesz egyszerű. Sokan ezeket az algoritmusokat okolják a félretájékoztatás terjedésének és a politikai megosztottság növekedése miatt. Négy friss tanulmány - köztük egy, amely a 2020-as amerikai elnökválasztás idején a Facebookot használó 208 millió amerikai adatait vizsgálta - alapjaiban ingatja meg ezt a nézetet.
A tanulmányokban a Texasi Egyetem, a New York-i Egyetem, a Princeton és más intézmények kutatói megállapították, hogy a közösségi platformok algoritmusainak egyes kulcsfontosságú funkcióinak eltávolítása "nem volt mérhető hatással" az emberek politikai meggyőződésére. A Facebook algoritmusával végzett egyik kísérletben a kutatók eltávolították a posztok továbbosztásának lehetőségét, és ezután az emberek politikai hírekkel kapcsolatos ismeretei csökkentek. Ugyanakkor egy másik tanulmány szerint a politikai hírek Facebookon és Instagramon történő fogyasztása ideológia szerint erősen elkülönült. A 2020-as választások során a tényellenőrzők által hamisnak minősített hírekre mutató linkek több mint 97 százaléka több konzervatív olvasót vonzott, mint liberális olvasót - állapította meg a kutatás.
A Science és a Nature folyóiratokban megjelent tanulmányok ellentmondásos és árnyalt képet adnak arról, hogyan használják az amerikaiak és hogyan hat rájuk a világ két legnagyobb közösségi platformja. Az eredmények alapján a közösségi médiának a közvélemény alakításában játszott szerepének megértése még évekig eltarthat. A tanulmányok azért is kiemelkedőek, mert azokba nagyszámú Facebook- és Instagram-felhasználót vontak be, és mert a kutatók az alkalmazások tulajdonosa, a Meta közreműködésével szereztek adatokat, fogalmaztak meg és végeztek kísérleteket. A korábbi közösségi médiával kapcsolatos tanulmányok többnyire nyilvánosan elérhető információkra támaszkodtak, vagy kis számú felhasználóra alapoztak, akiknek az adatait az internetről töltötték le.
A Facebook célja a nála eltöltött idő növelése, hogy több reklámot tudjon mutatni, ami magasabb bevételhez vezet
Talia Stroud, az austini Texasi Egyetem Médiaközpontjának alapítója és igazgatója, valamint Joshua Tucker, a New York-i Egyetem Média és Politika Központjának professzora és társalapítója elmondta, hogy "most már tudják, hogy az algoritmus milyen nagy befolyással bír az emberek platformon szerzett tapasztalataira". A kutatás rámutatott, hogy "meglehetősen összetett társadalmi kérdésekkel állunk szemben", és hogy "nincs csodafegyver" a közösségi média hatásainak kezelésére. "Óvatosnak kell lennünk azzal kapcsolatban, hogy mit feltételezünk arról, hogy mi történik, és mi az, ami valójában történik" - mondta Katie Harbath, a Meta korábbi közpolitikai igazgatója, aki 2021-ben távozott a cégtől. "A tanulmányok felborították a közösségi média feltételezett hatásairól alkotott képet. Az emberek politikai preferenciáit számos tényező befolyásolja" - mondta -, és "a közösségi média önmagában nem okolható minden bajunkért".
A Meta 2020 augusztusában jelentette be, hogy részt vesz a kutatásban. A cég 20 millió dollárt kapott a részvételért egy pártoktól független ügynökségtől, a Chicagói Egyetem Nemzeti Közvélemény-kutató Központjától, amely segített az adatok egy részének összegyűjtésében. A vállalat néhány alkalmazottja együtt dolgozott az akadémikusokkal, és a Metának joga volt megvétózni a felhasználók magánéletét sértő adatkéréseket. "A munka közvetlen részvételt igényelt a Meta részéről, amely az összes adatot birtokolta, és csak bizonyos fajtákat bocsátott a kutatók rendelkezésére" - mondta Michael Wagner, a Wisconsin-Madison Egyetem tömegkommunikációs professzora, aki független ellenőrként vett részt a projektben. A kutatók elmondták, hogy a végső szót ők mondták ki a tanulmányok következtetései felett.
Holden Thorp, a Science főszerkesztőjének vezércikke szerint tanulmányok adatai azt mutatják, hogy "a liberálisoknak az algoritmusok által mutatott hírek nagyban különböztek a konzervatívok elé tett hírektől, amelyek politikailag homogénebbek voltak. Vagyis a Facebook már olyan hatékony munkát végezhetett abban, hogy a felhasználókat a vágyaikat kielégítő hírcsatornákra szoktassa, hogy azok már megváltoztathatatlanul szegregálódtak."
A Science magazin címlapja szerint teljesen különböző dolgokat látnak az emberek
A Meta megpróbálta a maga javára kedvezően alakítani az eredményeket, mert a cég évekig tartó támadásoknak volt kitéve, amiért a korábbi amerikai választások során aktívan részt vett a félretájékoztatásban. Nick Clegg, a társaság globális ügyekért felelős elnöke szerint a tanulmányok azt mutatják, hogy "kevés bizonyíték van arra, hogy a Meta platformjainak kulcsfontosságú jellemzői önmagukban káros megosztottságot okoznának, vagy jelentős hatással lennének rá. Bár a közösségi médiáról és a demokráciáról szóló vitát nem ezek az eredmények fogják eldönteni, de "reméljük és elvárjuk, hogy ez előbbre viszi a társadalom megértését ezekben a kérdésekben".
A kutatók évek óta kérdéseket vetnek fel a Facebook és az Instagram alapjául szolgáló algoritmusokkal kapcsolatban, amelyek meghatározzák, hogy az emberek mit látnak az alkalmazásokban. 2021-ben Frances Haugen, a Facebook egyik alkalmazottja, akiből informátor lett, még inkább reflektorfénybe helyezte őket. A törvényhozóknak és a médiának több ezer vállalati dokumentumot adott át, és a kongresszusban azt vallotta, hogy a Facebook algoritmusa miatt "a tinédzserek több anorexiás tartalomnak vannak kitéve", és "szó szerint szítja az etnikai erőszakot" olyan országokban, mint Etiópia. A törvényhozók - köztük Amy Klobuchar minnesotai demokrata szenátor és Cynthia Lummis wyomingi republikánus szenátor - később törvényjavaslatokat nyújtottak be az algoritmusok tanulmányozására vagy korlátozására. Egyik sem ment át.
A most közzétett tanulmányok közül háromban a Facebook és az Instagram felhasználóit kérték fel, és őket beleegyezésüket adták a részvételhez, azonosító adataikat kitakarva. A negyedik tanulmányban a vállalat 208 millió Facebook-felhasználó anonimizált adatait bocsátotta a kutatók rendelkezésére. Az egyik tanulmány címe "Hogyan befolyásolják a közösségi média hírfolyamának algoritmusai az attitűdöket?" volt. Ebben a kutatásban - amelyben több mint 23 000 Facebook-felhasználó és 21 000 Instagram-felhasználó vett részt - a kutatók az algoritmusokat fordított időrendi hírfolyamra cserélték, ami azt jelenti, hogy az emberek a legfrissebb posztokat látták először a nagyrészt az érdeklődési körükre szabott posztok helyett. A kutatók szerint azonban az emberek "polarizációja", vagyis politikai hozzáállása nem változott. Az akadémikusok felméréseiben az emberek nem számoltak be arról, hogy megváltoztatták volna a viselkedésüket, például több online petíciót írtak volna alá, vagy több politikai gyűlésen vettek volna részt, miután megváltoztatták az általuk látott híreket. Aggasztó, hogy a fordított időrendi sorrendben megjelenő feed a tanulmány szerint növelte az emberek által látott megbízhatatlan tartalmak mennyiségét.
A megosztóbb hírek több interakciót váltanak ki az emberekből
A tanulmány, amely 208 millió amerikai Facebook-felhasználó adatait vizsgálta a 2020-as választások idején, megállapította, hogy politikai ideológia szerint megosztottak voltak, és a magukat konzervatívnak vallók több félretájékoztatást láttak, mint a liberálisnak vallók. A konzervatívok a kutatás szerint hajlamosak voltak sokkal több olyan politikai hírt olvasni, amelyeket szinte kizárólag más konzervatívok olvastak. A külső tényellenőrzők által hamisnak jelölt hírcikkek több mint 97 százalékát több konzervatív nézte meg, mint liberális. A Facebook-oldalak és -csoportok, amelyek lehetővé teszik a felhasználók számára, hogy a számukra érdekes témákat kövessék, több szélsőséges cikkre mutató linket osztottak meg, mint a felhasználók barátai. A tanulmány szerint a Facebook-oldalak és -csoportok "nagyon erős kurátori és terjesztési gépezetet" jelentenek. Mégis, a Facebook-felhasználók által olvasott álhírcikkek aránya alacsony volt az összes megtekintett hírcikkhez képest, mondták a kutatók.
Egy másik tanulmányban a kutatók megállapították, hogy a 23 000 Facebook-felhasználó adatfolyamában a "hasonlóan gondolkodó" kapcsolatok által közzétett tartalmak mennyiségének csökkentése nem változtatta meg mérhetően a résztvevők meggyőződését vagy politikai polarizációját. "Ezek az eredmények megkérdőjelezik azokat a népszerű narratívákat, amelyek a közösségi média buborékjait teszik felelőssé a kortárs demokrácia problémáiért" - fogalmaztak a tanulmány szerzői. Egy negyedik tanulmányban, amely 27 000 Facebook- és Instagram-felhasználót vizsgált, az emberek azt mondták, hogy a politikai hírekkel kapcsolatos ismereteik csökkentek, amikor egy kísérlet során elvették tőlük a posztok továbbosztásának lehetőségét. A megosztás gomb eltávolítása végül nem változtatta meg az emberek hitét vagy véleményét - állapította meg a tanulmány.
A kutatók figyelmeztettek, hogy eredményeiket számos változó befolyásolta. A kísérletek némelyikének időzítése közvetlenül a 2020-as elnökválasztás előtt például azt jelenthette, hogy a felhasználók politikai attitűdjei már megszilárdultak. Egyes megállapítások elavultak lehetnek: amióta a kutatók belevágtak a munkába, a Meta ritkította a felhasználók fő hírfolyamában, a Facebookon és az Instagramon a kiadók híreinek közzétételét. A vállalat emellett rendszeresen finomítja és módosítja algoritmusait, hogy a felhasználók érdeklődését fenntartsa. A kutatók elmondták, hogy mindazonáltal remélik, hogy a dolgozatok további munkához vezetnek a területen, amelyben más közösségi médiavállalatok is részt vesznek. "Nagyon reméljük, hogy a társadalom a politikai döntéshozókon keresztül lépéseket tesz annak érdekében, hogy az ilyen jellegű kutatások a jövőben is folytatódhassanak" - mondta Tucker. "Ez olyasvalami kellene, hogy legyen, amit a társadalom az érdekének tekint."
A Facebook és társoldala, az Instagram egy gépi intelligenciával működő algoritmust használ arra, hogy tartalmakat juttasson el a felhasználókhoz ahelyett, hogy a barátok posztjainak egyszerű, időrendi hírfolyamát kínálná. Az algoritmus növeli az oldalon eltöltött időt, a posztok iránti elkötelezettséget, és ennek következtében a hirdetők bevételeit. Ezek az algoritmusok határozzák meg, hogy emberek milliárdjai milyen tartalmakat látnak a közösségi hálózatokon, ezért ezek évek óta a törvényhozók, aktivisták és a szabályozó hatóságok célkeresztjében vannak. Az Európai Unió új törvényt is hozott, a DSA-t, melynek vezérelve az átláthatóság, de már most tudni lehet, hogy ennek betartatása nem lesz egyszerű. Sokan ezeket az algoritmusokat okolják a félretájékoztatás terjedésének és a politikai megosztottság növekedése miatt. Négy friss tanulmány - köztük egy, amely a 2020-as amerikai elnökválasztás idején a Facebookot használó 208 millió amerikai adatait vizsgálta - alapjaiban ingatja meg ezt a nézetet.
A tanulmányokban a Texasi Egyetem, a New York-i Egyetem, a Princeton és más intézmények kutatói megállapították, hogy a közösségi platformok algoritmusainak egyes kulcsfontosságú funkcióinak eltávolítása "nem volt mérhető hatással" az emberek politikai meggyőződésére. A Facebook algoritmusával végzett egyik kísérletben a kutatók eltávolították a posztok továbbosztásának lehetőségét, és ezután az emberek politikai hírekkel kapcsolatos ismeretei csökkentek. Ugyanakkor egy másik tanulmány szerint a politikai hírek Facebookon és Instagramon történő fogyasztása ideológia szerint erősen elkülönült. A 2020-as választások során a tényellenőrzők által hamisnak minősített hírekre mutató linkek több mint 97 százaléka több konzervatív olvasót vonzott, mint liberális olvasót - állapította meg a kutatás.
A Science és a Nature folyóiratokban megjelent tanulmányok ellentmondásos és árnyalt képet adnak arról, hogyan használják az amerikaiak és hogyan hat rájuk a világ két legnagyobb közösségi platformja. Az eredmények alapján a közösségi médiának a közvélemény alakításában játszott szerepének megértése még évekig eltarthat. A tanulmányok azért is kiemelkedőek, mert azokba nagyszámú Facebook- és Instagram-felhasználót vontak be, és mert a kutatók az alkalmazások tulajdonosa, a Meta közreműködésével szereztek adatokat, fogalmaztak meg és végeztek kísérleteket. A korábbi közösségi médiával kapcsolatos tanulmányok többnyire nyilvánosan elérhető információkra támaszkodtak, vagy kis számú felhasználóra alapoztak, akiknek az adatait az internetről töltötték le.
A Facebook célja a nála eltöltött idő növelése, hogy több reklámot tudjon mutatni, ami magasabb bevételhez vezet
Talia Stroud, az austini Texasi Egyetem Médiaközpontjának alapítója és igazgatója, valamint Joshua Tucker, a New York-i Egyetem Média és Politika Központjának professzora és társalapítója elmondta, hogy "most már tudják, hogy az algoritmus milyen nagy befolyással bír az emberek platformon szerzett tapasztalataira". A kutatás rámutatott, hogy "meglehetősen összetett társadalmi kérdésekkel állunk szemben", és hogy "nincs csodafegyver" a közösségi média hatásainak kezelésére. "Óvatosnak kell lennünk azzal kapcsolatban, hogy mit feltételezünk arról, hogy mi történik, és mi az, ami valójában történik" - mondta Katie Harbath, a Meta korábbi közpolitikai igazgatója, aki 2021-ben távozott a cégtől. "A tanulmányok felborították a közösségi média feltételezett hatásairól alkotott képet. Az emberek politikai preferenciáit számos tényező befolyásolja" - mondta -, és "a közösségi média önmagában nem okolható minden bajunkért".
A Meta 2020 augusztusában jelentette be, hogy részt vesz a kutatásban. A cég 20 millió dollárt kapott a részvételért egy pártoktól független ügynökségtől, a Chicagói Egyetem Nemzeti Közvélemény-kutató Központjától, amely segített az adatok egy részének összegyűjtésében. A vállalat néhány alkalmazottja együtt dolgozott az akadémikusokkal, és a Metának joga volt megvétózni a felhasználók magánéletét sértő adatkéréseket. "A munka közvetlen részvételt igényelt a Meta részéről, amely az összes adatot birtokolta, és csak bizonyos fajtákat bocsátott a kutatók rendelkezésére" - mondta Michael Wagner, a Wisconsin-Madison Egyetem tömegkommunikációs professzora, aki független ellenőrként vett részt a projektben. A kutatók elmondták, hogy a végső szót ők mondták ki a tanulmányok következtetései felett.
Holden Thorp, a Science főszerkesztőjének vezércikke szerint tanulmányok adatai azt mutatják, hogy "a liberálisoknak az algoritmusok által mutatott hírek nagyban különböztek a konzervatívok elé tett hírektől, amelyek politikailag homogénebbek voltak. Vagyis a Facebook már olyan hatékony munkát végezhetett abban, hogy a felhasználókat a vágyaikat kielégítő hírcsatornákra szoktassa, hogy azok már megváltoztathatatlanul szegregálódtak."
A Science magazin címlapja szerint teljesen különböző dolgokat látnak az emberek
A Meta megpróbálta a maga javára kedvezően alakítani az eredményeket, mert a cég évekig tartó támadásoknak volt kitéve, amiért a korábbi amerikai választások során aktívan részt vett a félretájékoztatásban. Nick Clegg, a társaság globális ügyekért felelős elnöke szerint a tanulmányok azt mutatják, hogy "kevés bizonyíték van arra, hogy a Meta platformjainak kulcsfontosságú jellemzői önmagukban káros megosztottságot okoznának, vagy jelentős hatással lennének rá. Bár a közösségi médiáról és a demokráciáról szóló vitát nem ezek az eredmények fogják eldönteni, de "reméljük és elvárjuk, hogy ez előbbre viszi a társadalom megértését ezekben a kérdésekben".
A kutatók évek óta kérdéseket vetnek fel a Facebook és az Instagram alapjául szolgáló algoritmusokkal kapcsolatban, amelyek meghatározzák, hogy az emberek mit látnak az alkalmazásokban. 2021-ben Frances Haugen, a Facebook egyik alkalmazottja, akiből informátor lett, még inkább reflektorfénybe helyezte őket. A törvényhozóknak és a médiának több ezer vállalati dokumentumot adott át, és a kongresszusban azt vallotta, hogy a Facebook algoritmusa miatt "a tinédzserek több anorexiás tartalomnak vannak kitéve", és "szó szerint szítja az etnikai erőszakot" olyan országokban, mint Etiópia. A törvényhozók - köztük Amy Klobuchar minnesotai demokrata szenátor és Cynthia Lummis wyomingi republikánus szenátor - később törvényjavaslatokat nyújtottak be az algoritmusok tanulmányozására vagy korlátozására. Egyik sem ment át.
A most közzétett tanulmányok közül háromban a Facebook és az Instagram felhasználóit kérték fel, és őket beleegyezésüket adták a részvételhez, azonosító adataikat kitakarva. A negyedik tanulmányban a vállalat 208 millió Facebook-felhasználó anonimizált adatait bocsátotta a kutatók rendelkezésére. Az egyik tanulmány címe "Hogyan befolyásolják a közösségi média hírfolyamának algoritmusai az attitűdöket?" volt. Ebben a kutatásban - amelyben több mint 23 000 Facebook-felhasználó és 21 000 Instagram-felhasználó vett részt - a kutatók az algoritmusokat fordított időrendi hírfolyamra cserélték, ami azt jelenti, hogy az emberek a legfrissebb posztokat látták először a nagyrészt az érdeklődési körükre szabott posztok helyett. A kutatók szerint azonban az emberek "polarizációja", vagyis politikai hozzáállása nem változott. Az akadémikusok felméréseiben az emberek nem számoltak be arról, hogy megváltoztatták volna a viselkedésüket, például több online petíciót írtak volna alá, vagy több politikai gyűlésen vettek volna részt, miután megváltoztatták az általuk látott híreket. Aggasztó, hogy a fordított időrendi sorrendben megjelenő feed a tanulmány szerint növelte az emberek által látott megbízhatatlan tartalmak mennyiségét.
A megosztóbb hírek több interakciót váltanak ki az emberekből
A tanulmány, amely 208 millió amerikai Facebook-felhasználó adatait vizsgálta a 2020-as választások idején, megállapította, hogy politikai ideológia szerint megosztottak voltak, és a magukat konzervatívnak vallók több félretájékoztatást láttak, mint a liberálisnak vallók. A konzervatívok a kutatás szerint hajlamosak voltak sokkal több olyan politikai hírt olvasni, amelyeket szinte kizárólag más konzervatívok olvastak. A külső tényellenőrzők által hamisnak jelölt hírcikkek több mint 97 százalékát több konzervatív nézte meg, mint liberális. A Facebook-oldalak és -csoportok, amelyek lehetővé teszik a felhasználók számára, hogy a számukra érdekes témákat kövessék, több szélsőséges cikkre mutató linket osztottak meg, mint a felhasználók barátai. A tanulmány szerint a Facebook-oldalak és -csoportok "nagyon erős kurátori és terjesztési gépezetet" jelentenek. Mégis, a Facebook-felhasználók által olvasott álhírcikkek aránya alacsony volt az összes megtekintett hírcikkhez képest, mondták a kutatók.
Egy másik tanulmányban a kutatók megállapították, hogy a 23 000 Facebook-felhasználó adatfolyamában a "hasonlóan gondolkodó" kapcsolatok által közzétett tartalmak mennyiségének csökkentése nem változtatta meg mérhetően a résztvevők meggyőződését vagy politikai polarizációját. "Ezek az eredmények megkérdőjelezik azokat a népszerű narratívákat, amelyek a közösségi média buborékjait teszik felelőssé a kortárs demokrácia problémáiért" - fogalmaztak a tanulmány szerzői. Egy negyedik tanulmányban, amely 27 000 Facebook- és Instagram-felhasználót vizsgált, az emberek azt mondták, hogy a politikai hírekkel kapcsolatos ismereteik csökkentek, amikor egy kísérlet során elvették tőlük a posztok továbbosztásának lehetőségét. A megosztás gomb eltávolítása végül nem változtatta meg az emberek hitét vagy véleményét - állapította meg a tanulmány.
A kutatók figyelmeztettek, hogy eredményeiket számos változó befolyásolta. A kísérletek némelyikének időzítése közvetlenül a 2020-as elnökválasztás előtt például azt jelenthette, hogy a felhasználók politikai attitűdjei már megszilárdultak. Egyes megállapítások elavultak lehetnek: amióta a kutatók belevágtak a munkába, a Meta ritkította a felhasználók fő hírfolyamában, a Facebookon és az Instagramon a kiadók híreinek közzétételét. A vállalat emellett rendszeresen finomítja és módosítja algoritmusait, hogy a felhasználók érdeklődését fenntartsa. A kutatók elmondták, hogy mindazonáltal remélik, hogy a dolgozatok további munkához vezetnek a területen, amelyben más közösségi médiavállalatok is részt vesznek. "Nagyon reméljük, hogy a társadalom a politikai döntéshozókon keresztül lépéseket tesz annak érdekében, hogy az ilyen jellegű kutatások a jövőben is folytatódhassanak" - mondta Tucker. "Ez olyasvalami kellene, hogy legyen, amit a társadalom az érdekének tekint."