SG.hu
Fórumozó botokkal kutatta a vélemények befolyásolását a Zürichi Egyetem
A Zürichi Egyetem csapata botokat telepített a Reddit fórum r/changemyview oldalára, hogy tanulmányozza, hogyan befolyásolhatja a mesterséges intelligencia a véleményeket.
A Reddit szerint a Zürichi Egyetem kutatóinak egy csoportja "helytelen és rendkívül etikátlan kísérletet” végzett, mert titokban MI-botokat telepítettek egy népszerű fórumon, hogy tanulmányozzák, hogyan tudja a mesterséges intelligencia befolyásolni az emberek véleményét. A changemyview subreddit moderátorai a hétvégén figyelmeztették a csoport 3,8 millió felhasználóját az elmúlt hónapokban kibontakozó „engedély nélküli kísérletre”. A moderátorok elmondták, hogy "egy közzétételi lépés részeként” kaptak értesítést a tanulmányról, amelyben a kutatók több fiókot használtak a szubredditen való hozzászóláshoz anélkül, hogy felfedték volna, hogy mesterséges intelligenciát használtak a kommentek írásához.
A szubreddit "olyan helyként működik, ahol olyan véleményt lehet közzétenni, amelyet elfogadsz, hogy hibás lehet”, hogy jobban megértsd az ellentétes nézeteket, nem teszi lehetővé a nem nyilvános MI-generált tartalmak vagy botok használatát. „A kutatók nem léptek kapcsolatba velünk a tanulmány előtt, és ha megtették volna, elutasítottuk volna” - írták a moderátorok a bejegyzésben.
A magát a Reddit jogi vezetőjeként azonosító Ben Lee, a Redditen traceroo felhasználónév alatt posztolt adminisztrátori hozzászólásában a kísérletet „helytelennek és rendkívül etikátlannak”, valamint „erkölcsi és jogi szempontból is mélyen helytelennek” nevezte. "Jelenleg azon vagyunk, hogy hivatalos jogi követelésekkel forduljunk a Zürichi Egyetemhez és ehhez a bizonyos kutatócsoporthoz” - írja Lee a fórumon közzétett bejegyzésében. "Mindent meg akarunk tenni, amit csak tudunk, hogy támogassuk a közösséget, és biztosítsuk, hogy a kutatókat felelősségre vonják az itt elkövetett hibáikért”.
Melanie Nyfeler, a Zürichi Egyetem szóvivője megerősítette, hogy a bölcsészet- és társadalomtudományi kar etikai bizottsága tavaly áttekintett egy kutatási projektet, amely „a mesterséges intelligencia lehetőségeit vizsgálta az értékalapú politikai diskurzus polarizációjának csökkentésére”. A projekthez kapcsolódó négy tanulmány egyike „nagy nyelvi modellek (LLM) által vezérelt társalgási ágensek (”chatbotok„) használatával foglalkozott online fórumokon és szubredditekben” - mondta Nyfeler. A bizottság elmondta a kutatóknak, hogy ez a tanulmány „kivételesen” nagy kihívást jelent, mivel „a résztvevőket a lehető legnagyobb mértékben tájékoztatni kell”, és „a platform szabályait teljes mértékben be kell tartani” - mondta Nyfeler. A bizottsági értékelések azonban ajánlások, és nem jogilag kötelező érvényűek. „A kutatók maguk felelősek a projektek végrehajtásáért és az eredmények közzétételéért” - mondta Nyfeler.
„Az események fényében a Bölcsészet- és Társadalomtudományi Kar Etikai Bizottsága a jövőben szigorúbb felülvizsgálati eljárást kíván alkalmazni, és különösen a kísérleti tanulmányok előtt egyeztetni kíván a platformokon működő közösségekkel” - mondta Nyfeler. „A Zürichi Egyetem illetékes hatóságai tudnak az incidensről, és most részletesen kivizsgálják azokat, valamint kritikusan felülvizsgálják a vonatkozó értékelési folyamatokat”. Nyfeler hozzátette, hogy a kutatók úgy döntöttek, nem teszik közzé a kísérlet eredményeit.
A szubreddit moderátorai elmondták, hogy etikai panaszt nyújtottak be az egyetemhez, és kérték, hogy ne tegyék közzé a kutatást, azzal érvelve, hogy a közzététel „drámaian ösztönözné a kutatók további akcióit, hozzájárulva a közösség fokozott kiszolgáltatottságához a jövőbeni, beleegyezés nélküli emberkísérletekkel szemben”. Elmondták, hogy a kutatók megosztották velük a kísérlet eredményeinek tervezetét, amelyet a posztban linkeltek, de csak azokra korlátozva, akiknek engedélyük van a hozzáférésre.
Logan MacGregor, a szubreddit egyik moderátora a kutatók tettei miatt különösen sértve érzi magát. Körülbelül egy évvel ezelőtt csatlakozott a fórumhoz, miután a legtöbb más közösségi médiától elzárkózott, mert a vitriolos és mérgező diskurzusok nagyon károsak tudnak lenni. De az r/changemyview a jól bevált szabályaival és etikájával más volt, mondta. "Nagyon vonakodva csatlakoztam a Reddithez, de aztán rátaláltam erre a helyre, ahol bármiről lehet beszélni, ahol bármilyen nézet megengedett, és ahol az udvariasságot betartják. Ez egy biztonságos emberi hely volt az eszmecserére.”
A kutatók, akiknek a nevét nem hozták nyilvánosságra, mesterséges intelligencia botokat használtak 13 különböző fiók futtatására, amelyek közül az egyik azt állította, hogy nemi erőszak áldozata, egy másik pedig egy fekete férfi, aki ellenzi a Black Lives Matter eszméit - írták a moderátorok a közleményükben. A fórum moderátorai által ellenőrzött Reddit-fiókot, az LLMresearchteam-et használva a kutatók válaszoltak a közösség aggodalmaira és kritikáira, és azt írták, hogy kísérletüket a felhasználók figyelmeztetése vagy a tudatlan résztvevők beleegyezésének megszerzése nélkül kellett lefolytatniuk, mert "nem tudatos hozzáállásra volt szükség”.
A kutatók elmondták, hogy 34 fiókot indítottak, amiből 21 két héten belül shadowbant kapott - ez azt jelenti, hogy a fiókok továbbra is megtekinthették a subredditet, de a hozzászólásaikat elrejtették a közösség többi tagja elől. A fennmaradó 13 fiók átlagosan 10-15 hozzászólást tett közzé naponta, mondták a kutatók, és ezt a mennyiséget elhanyagolhatónak nevezték, tekintve a teljes subreddit napi átlagosan 7000 hozzászólását. A moderátorok szerint a botok összesen körülbelül 1700 kommentet tettek közzé.
"Az LLM meggyőzéssel kapcsolatos korábbi kutatások erősen mesterséges környezetben zajlottak, gyakran pénzügyileg ösztönzött résztvevők bevonásával” - írták a kutatók. „Ezek a beállítások nem képesek megragadni a valós világbeli interakciók összetettségét, amelyek spontán és kiszámíthatatlan módon fejlődnek, számos kontextuális tényezővel, amelyek befolyásolják, hogy a vélemények idővel hogyan változnak. A beleegyezésen alapuló kísérleteknek nincs ökológiai érvényességük, mert nem tudják szimulálni hogyan viselkednek a felhasználók, amikor nincsenek tudatában a meggyőzési próbálkozásoknak - ahogyan rossz szereplők jelenlétében is viselkednének.”
A kutatók elnézést kértek a tanulmányuk által okozott esetleges zavarokért, de fenntartották, hogy „minden döntésüket” a tanulmányuk során az „etikus tudományos magatartás, a felhasználói biztonság és az átláthatóság” elvei vezérelték. Érvelésük szerint a Zürichi Egyetem etikai bizottsága felülvizsgálta és jóváhagyta a megközelítésüket, és „elismerték, hogy az előzetes beleegyezés nem volt kivitelezhető”.
Angeliki Kerasidou, az Oxfordi Egyetem bioetikai docense szerint bár a kutatásban történő megtévesztés indokolt lehet olyan esetekben, amikor a kutatásnak nagy társadalmi értéke van, a tájékozott beleegyezés az etikus kutatás sarokkövének számít, „mert alátámasztja a személyek tiszteletét és támogatja az egyéni autonómiát”. Az r/changemyview-n végzett kísérlet „jól példázza a kutatás társadalmi (és nem csak tudományos) értékéről való gondolkodás, valamint a kutatási közösségekkel való együttműködés fontosságát a kutatási projektek tervezésekor” - írta Kerasidou.
MacGregor szerint a kísérlet egyik pozitív hozadéka, hogy felhívta a figyelmet egy mindent átható problémára: hogyan védjük meg azt a „drága kevés civil emberi teret”, amely még létezik az interneten. "A kutatóknak igazuk van a mesterséges intelligencia egzisztenciális kihívásaival kapcsolatban” - mondta. „A módszer, ahogyan ezt csinálták, rossz volt. De úgy gondolom, hogy jó szándékkal tették, és az egyik dolog, amit személy szerint szeretnék, ha ebből az egészből kikerülne egy jobb út, ahogyan mindannyian küzdünk az MI-val. Ez nem fog eltűnni. Nem lehet kikapcsolni. De mit tehetünk azért, hogy ezek a terek emberi jellegűek maradjanak?”
A Reddit szerint a Zürichi Egyetem kutatóinak egy csoportja "helytelen és rendkívül etikátlan kísérletet” végzett, mert titokban MI-botokat telepítettek egy népszerű fórumon, hogy tanulmányozzák, hogyan tudja a mesterséges intelligencia befolyásolni az emberek véleményét. A changemyview subreddit moderátorai a hétvégén figyelmeztették a csoport 3,8 millió felhasználóját az elmúlt hónapokban kibontakozó „engedély nélküli kísérletre”. A moderátorok elmondták, hogy "egy közzétételi lépés részeként” kaptak értesítést a tanulmányról, amelyben a kutatók több fiókot használtak a szubredditen való hozzászóláshoz anélkül, hogy felfedték volna, hogy mesterséges intelligenciát használtak a kommentek írásához.
A szubreddit "olyan helyként működik, ahol olyan véleményt lehet közzétenni, amelyet elfogadsz, hogy hibás lehet”, hogy jobban megértsd az ellentétes nézeteket, nem teszi lehetővé a nem nyilvános MI-generált tartalmak vagy botok használatát. „A kutatók nem léptek kapcsolatba velünk a tanulmány előtt, és ha megtették volna, elutasítottuk volna” - írták a moderátorok a bejegyzésben.
A magát a Reddit jogi vezetőjeként azonosító Ben Lee, a Redditen traceroo felhasználónév alatt posztolt adminisztrátori hozzászólásában a kísérletet „helytelennek és rendkívül etikátlannak”, valamint „erkölcsi és jogi szempontból is mélyen helytelennek” nevezte. "Jelenleg azon vagyunk, hogy hivatalos jogi követelésekkel forduljunk a Zürichi Egyetemhez és ehhez a bizonyos kutatócsoporthoz” - írja Lee a fórumon közzétett bejegyzésében. "Mindent meg akarunk tenni, amit csak tudunk, hogy támogassuk a közösséget, és biztosítsuk, hogy a kutatókat felelősségre vonják az itt elkövetett hibáikért”.
Melanie Nyfeler, a Zürichi Egyetem szóvivője megerősítette, hogy a bölcsészet- és társadalomtudományi kar etikai bizottsága tavaly áttekintett egy kutatási projektet, amely „a mesterséges intelligencia lehetőségeit vizsgálta az értékalapú politikai diskurzus polarizációjának csökkentésére”. A projekthez kapcsolódó négy tanulmány egyike „nagy nyelvi modellek (LLM) által vezérelt társalgási ágensek (”chatbotok„) használatával foglalkozott online fórumokon és szubredditekben” - mondta Nyfeler. A bizottság elmondta a kutatóknak, hogy ez a tanulmány „kivételesen” nagy kihívást jelent, mivel „a résztvevőket a lehető legnagyobb mértékben tájékoztatni kell”, és „a platform szabályait teljes mértékben be kell tartani” - mondta Nyfeler. A bizottsági értékelések azonban ajánlások, és nem jogilag kötelező érvényűek. „A kutatók maguk felelősek a projektek végrehajtásáért és az eredmények közzétételéért” - mondta Nyfeler.
„Az események fényében a Bölcsészet- és Társadalomtudományi Kar Etikai Bizottsága a jövőben szigorúbb felülvizsgálati eljárást kíván alkalmazni, és különösen a kísérleti tanulmányok előtt egyeztetni kíván a platformokon működő közösségekkel” - mondta Nyfeler. „A Zürichi Egyetem illetékes hatóságai tudnak az incidensről, és most részletesen kivizsgálják azokat, valamint kritikusan felülvizsgálják a vonatkozó értékelési folyamatokat”. Nyfeler hozzátette, hogy a kutatók úgy döntöttek, nem teszik közzé a kísérlet eredményeit.
A szubreddit moderátorai elmondták, hogy etikai panaszt nyújtottak be az egyetemhez, és kérték, hogy ne tegyék közzé a kutatást, azzal érvelve, hogy a közzététel „drámaian ösztönözné a kutatók további akcióit, hozzájárulva a közösség fokozott kiszolgáltatottságához a jövőbeni, beleegyezés nélküli emberkísérletekkel szemben”. Elmondták, hogy a kutatók megosztották velük a kísérlet eredményeinek tervezetét, amelyet a posztban linkeltek, de csak azokra korlátozva, akiknek engedélyük van a hozzáférésre.
Logan MacGregor, a szubreddit egyik moderátora a kutatók tettei miatt különösen sértve érzi magát. Körülbelül egy évvel ezelőtt csatlakozott a fórumhoz, miután a legtöbb más közösségi médiától elzárkózott, mert a vitriolos és mérgező diskurzusok nagyon károsak tudnak lenni. De az r/changemyview a jól bevált szabályaival és etikájával más volt, mondta. "Nagyon vonakodva csatlakoztam a Reddithez, de aztán rátaláltam erre a helyre, ahol bármiről lehet beszélni, ahol bármilyen nézet megengedett, és ahol az udvariasságot betartják. Ez egy biztonságos emberi hely volt az eszmecserére.”
A kutatók, akiknek a nevét nem hozták nyilvánosságra, mesterséges intelligencia botokat használtak 13 különböző fiók futtatására, amelyek közül az egyik azt állította, hogy nemi erőszak áldozata, egy másik pedig egy fekete férfi, aki ellenzi a Black Lives Matter eszméit - írták a moderátorok a közleményükben. A fórum moderátorai által ellenőrzött Reddit-fiókot, az LLMresearchteam-et használva a kutatók válaszoltak a közösség aggodalmaira és kritikáira, és azt írták, hogy kísérletüket a felhasználók figyelmeztetése vagy a tudatlan résztvevők beleegyezésének megszerzése nélkül kellett lefolytatniuk, mert "nem tudatos hozzáállásra volt szükség”.
A kutatók elmondták, hogy 34 fiókot indítottak, amiből 21 két héten belül shadowbant kapott - ez azt jelenti, hogy a fiókok továbbra is megtekinthették a subredditet, de a hozzászólásaikat elrejtették a közösség többi tagja elől. A fennmaradó 13 fiók átlagosan 10-15 hozzászólást tett közzé naponta, mondták a kutatók, és ezt a mennyiséget elhanyagolhatónak nevezték, tekintve a teljes subreddit napi átlagosan 7000 hozzászólását. A moderátorok szerint a botok összesen körülbelül 1700 kommentet tettek közzé.
"Az LLM meggyőzéssel kapcsolatos korábbi kutatások erősen mesterséges környezetben zajlottak, gyakran pénzügyileg ösztönzött résztvevők bevonásával” - írták a kutatók. „Ezek a beállítások nem képesek megragadni a valós világbeli interakciók összetettségét, amelyek spontán és kiszámíthatatlan módon fejlődnek, számos kontextuális tényezővel, amelyek befolyásolják, hogy a vélemények idővel hogyan változnak. A beleegyezésen alapuló kísérleteknek nincs ökológiai érvényességük, mert nem tudják szimulálni hogyan viselkednek a felhasználók, amikor nincsenek tudatában a meggyőzési próbálkozásoknak - ahogyan rossz szereplők jelenlétében is viselkednének.”
A kutatók elnézést kértek a tanulmányuk által okozott esetleges zavarokért, de fenntartották, hogy „minden döntésüket” a tanulmányuk során az „etikus tudományos magatartás, a felhasználói biztonság és az átláthatóság” elvei vezérelték. Érvelésük szerint a Zürichi Egyetem etikai bizottsága felülvizsgálta és jóváhagyta a megközelítésüket, és „elismerték, hogy az előzetes beleegyezés nem volt kivitelezhető”.
Angeliki Kerasidou, az Oxfordi Egyetem bioetikai docense szerint bár a kutatásban történő megtévesztés indokolt lehet olyan esetekben, amikor a kutatásnak nagy társadalmi értéke van, a tájékozott beleegyezés az etikus kutatás sarokkövének számít, „mert alátámasztja a személyek tiszteletét és támogatja az egyéni autonómiát”. Az r/changemyview-n végzett kísérlet „jól példázza a kutatás társadalmi (és nem csak tudományos) értékéről való gondolkodás, valamint a kutatási közösségekkel való együttműködés fontosságát a kutatási projektek tervezésekor” - írta Kerasidou.
MacGregor szerint a kísérlet egyik pozitív hozadéka, hogy felhívta a figyelmet egy mindent átható problémára: hogyan védjük meg azt a „drága kevés civil emberi teret”, amely még létezik az interneten. "A kutatóknak igazuk van a mesterséges intelligencia egzisztenciális kihívásaival kapcsolatban” - mondta. „A módszer, ahogyan ezt csinálták, rossz volt. De úgy gondolom, hogy jó szándékkal tették, és az egyik dolog, amit személy szerint szeretnék, ha ebből az egészből kikerülne egy jobb út, ahogyan mindannyian küzdünk az MI-val. Ez nem fog eltűnni. Nem lehet kikapcsolni. De mit tehetünk azért, hogy ezek a terek emberi jellegűek maradjanak?”