SG.hu
A csetbotok meg tudják ingatni hitükben az összeesküvés-elméletek híveit
A kutatás ellentmond annak az elképzelésnek, hogy szinte lehetetlen megváltoztatni egyes vélekedéseket a népszerű, de nem bizonyított elképzelésekkel kapcsolatban.
Az összeesküvés-elméletek hívei, akik egy mesterséges intelligencia chatrobottal vitatkoztak, hajlandóbbak lettek beismerni a hitükkel kapcsolatos kételyeiket - derül ki egy kutatásból, amely a félretájékoztatás kezelésével kapcsolatban nyújt betekintést. A nagyobb nyitottság még a legmakacsabb hívőkre is kiterjedt, és még jóval a géppel folytatott párbeszéd befejezése után is megmaradt, állapították meg a tudósok. A kutatás ellentmond annak az elképzelésnek, hogy szinte lehetetlen megváltoztatni azoknak az egyéneknek a gondolkodását, akik lemerültek a népszerű, de bizonyítatlan elképzelések nyúlüregébe. Az eredmények azért figyelemre méltóak, mert azt sugallják, hogy a mesterséges intelligencia-modellek potenciálisan pozitív szerepet játszhatnak a félretájékoztatás elleni küzdelemben, annak ellenére, hogy maguk is sebezhetőek a „hallucinációkkal” szemben, amelyek miatt néha tévhiteket terjesztenek.
A munka „fényesebb képet fest az emberi elméről, mint azt sokan várták volna”, és azt mutatja, hogy „az érvelés és a bizonyítékok nem haltak meg” - mondta David Rand, a Science című tudományos folyóiratban megjelent munka egyik kutatója. "Még az összeesküvés-elmélet hívei is reagálnak a pontos tényekre és bizonyítékokra - csak közvetlenül kell megszólítani a konkrét hiedelmeiket és aggodalmaikat” - mondta Rand, a Massachusetts Institute of Technology Sloan School of Management professzora. "Miközben széles körben elterjedt jogos aggodalmak vannak a generatív mesterséges intelligencia dezinformáció terjesztésére irányuló erejével kapcsolatban, a mi tanulmányunk megmutatja, hogyan lehet a megoldás része azáltal, hogy rendkívül hatékony oktatóként működik” - tette hozzá.
A kutatók azt vizsgálták, hogy az MI nagy nyelvi modelljei - mint például az OpenAI GPT-4 Turbo - felhasználhatják-e az információk elérésének és összegzésének képességét a konspiratív hiedelmek kezelésére. Ezek között szerepelt, hogy a 2001. szeptember 11-i terrortámadásokat megrendezték, a 2020-as amerikai elnökválasztást elcsalták, a Covid-19 világjárványt pedig megrendezték. Közel 2200 résztvevő osztotta meg konspiratív elképzeléseit az LLM-mel, amely bizonyítékokat hozott fel az állítások ellen. Ezek a párbeszédek átlagosan 20 százalékkal csökkentették a személy önértékelés szerinti hitét a választott elméletben, legalább két hónappal azutánig, miután beszéltek a botokkal - közölték a kutatók.
Egy hivatásos tényellenőrző a modell saját kimenetének egy mintáját értékelte pontosság szempontjából. Az ellenőrzés az LLM állításainak 99,2 százalékát igaznak, 0,8 százalékát pedig félrevezetőnek találta - közölték a tudósok. A tanulmány személyre szabott kérdés-felelet megközelítése egyfajta válasz a félretájékoztatás leleplezésére irányuló számos meglévő stratégia nyilvánvaló hatástalanságára. Az összeesküvéses gondolkodásra irányuló általános erőfeszítések másik problémája az, hogy valóban történnek összeesküvések, míg más esetekben a szkeptikus narratívák erősen megszépítettek lehetnek, de az igazság magján alapulhatnak.
Az egyik elmélet arról, hogy miért működik jól a chatbot interakció, az, hogy a gép azonnali hozzáféréssel rendelkezik bármilyen típusú információhoz, olyan módon, ahogyan az emberi válaszadó nem. A szoftver emellett udvariasan és empatikusan kezelte emberi beszélgetőpartnereit, ellentétben az összeesküvés-elméleteket a való életben néha lenézőkkel. Más kutatások azonban azt sugallták, hogy a gép megszólítási módja valószínűleg nem volt fontos tényező, mondta Rand. Ő és kollégái végeztek egy utólagos kísérletet, amelyben a mesterséges intelligenciát arra kérték, hogy „finomkodások nélkül” adjon tényszerű helyreigazítást, és ez ugyanolyan jól működött - tette hozzá.
A Science-ben szintén megjelent kísérő kommentár szerint a tanulmány „az összeesküvés-hiedelmek csökkenésének mérete, robusztussága és tartóssága” azt sugallja, hogy „elérhető közelségbe kerülhet a tévhitek újrakalibrálását célzó, méretezhető beavatkozás”. A lehetséges korlátok között azonban szerepelnek az új összeesküvés-elméletekre való reagálás nehézségei, valamint a tudományos intézményekben kevéssé bízó emberek rábírása arra, hogy lépjenek kapcsolatba a robotokkal - mondta Bence Bago a hollandiai Tilburgi Egyetemről és Jean-François Bonnefon a Toulouse-i Közgazdasági Főiskoláról, akik együtt írták a tanulmányt.
„A mesterséges intelligenciával folytatott párbeszéd technikája azért olyan hatékony, mert automatizálja a konkrét és alapos ellenbizonyítékok generálását az összeesküvés-hívők bonyolult érveivel szemben, és ezért bevethető lenne a pontos, helyesbítő információk széles körű biztosítására” - mondta Bago és Bonnefon, akik nem vettek részt a kutatásban. "E potenciál megvalósításának fontos korlátja a szállításban rejlik” - tették hozzá. „Nevezetesen, hogyan lehet rávenni a megrögzött összeesküvés-hiedelmekkel rendelkező egyéneket arra, hogy elkezdjenek beszélgetni egy megfelelően képzett mesterséges intelligencia-programmal.”
Az összeesküvés-elméletek hívei, akik egy mesterséges intelligencia chatrobottal vitatkoztak, hajlandóbbak lettek beismerni a hitükkel kapcsolatos kételyeiket - derül ki egy kutatásból, amely a félretájékoztatás kezelésével kapcsolatban nyújt betekintést. A nagyobb nyitottság még a legmakacsabb hívőkre is kiterjedt, és még jóval a géppel folytatott párbeszéd befejezése után is megmaradt, állapították meg a tudósok. A kutatás ellentmond annak az elképzelésnek, hogy szinte lehetetlen megváltoztatni azoknak az egyéneknek a gondolkodását, akik lemerültek a népszerű, de bizonyítatlan elképzelések nyúlüregébe. Az eredmények azért figyelemre méltóak, mert azt sugallják, hogy a mesterséges intelligencia-modellek potenciálisan pozitív szerepet játszhatnak a félretájékoztatás elleni küzdelemben, annak ellenére, hogy maguk is sebezhetőek a „hallucinációkkal” szemben, amelyek miatt néha tévhiteket terjesztenek.
A munka „fényesebb képet fest az emberi elméről, mint azt sokan várták volna”, és azt mutatja, hogy „az érvelés és a bizonyítékok nem haltak meg” - mondta David Rand, a Science című tudományos folyóiratban megjelent munka egyik kutatója. "Még az összeesküvés-elmélet hívei is reagálnak a pontos tényekre és bizonyítékokra - csak közvetlenül kell megszólítani a konkrét hiedelmeiket és aggodalmaikat” - mondta Rand, a Massachusetts Institute of Technology Sloan School of Management professzora. "Miközben széles körben elterjedt jogos aggodalmak vannak a generatív mesterséges intelligencia dezinformáció terjesztésére irányuló erejével kapcsolatban, a mi tanulmányunk megmutatja, hogyan lehet a megoldás része azáltal, hogy rendkívül hatékony oktatóként működik” - tette hozzá.
A kutatók azt vizsgálták, hogy az MI nagy nyelvi modelljei - mint például az OpenAI GPT-4 Turbo - felhasználhatják-e az információk elérésének és összegzésének képességét a konspiratív hiedelmek kezelésére. Ezek között szerepelt, hogy a 2001. szeptember 11-i terrortámadásokat megrendezték, a 2020-as amerikai elnökválasztást elcsalták, a Covid-19 világjárványt pedig megrendezték. Közel 2200 résztvevő osztotta meg konspiratív elképzeléseit az LLM-mel, amely bizonyítékokat hozott fel az állítások ellen. Ezek a párbeszédek átlagosan 20 százalékkal csökkentették a személy önértékelés szerinti hitét a választott elméletben, legalább két hónappal azutánig, miután beszéltek a botokkal - közölték a kutatók.
Egy hivatásos tényellenőrző a modell saját kimenetének egy mintáját értékelte pontosság szempontjából. Az ellenőrzés az LLM állításainak 99,2 százalékát igaznak, 0,8 százalékát pedig félrevezetőnek találta - közölték a tudósok. A tanulmány személyre szabott kérdés-felelet megközelítése egyfajta válasz a félretájékoztatás leleplezésére irányuló számos meglévő stratégia nyilvánvaló hatástalanságára. Az összeesküvéses gondolkodásra irányuló általános erőfeszítések másik problémája az, hogy valóban történnek összeesküvések, míg más esetekben a szkeptikus narratívák erősen megszépítettek lehetnek, de az igazság magján alapulhatnak.
Az egyik elmélet arról, hogy miért működik jól a chatbot interakció, az, hogy a gép azonnali hozzáféréssel rendelkezik bármilyen típusú információhoz, olyan módon, ahogyan az emberi válaszadó nem. A szoftver emellett udvariasan és empatikusan kezelte emberi beszélgetőpartnereit, ellentétben az összeesküvés-elméleteket a való életben néha lenézőkkel. Más kutatások azonban azt sugallták, hogy a gép megszólítási módja valószínűleg nem volt fontos tényező, mondta Rand. Ő és kollégái végeztek egy utólagos kísérletet, amelyben a mesterséges intelligenciát arra kérték, hogy „finomkodások nélkül” adjon tényszerű helyreigazítást, és ez ugyanolyan jól működött - tette hozzá.
A Science-ben szintén megjelent kísérő kommentár szerint a tanulmány „az összeesküvés-hiedelmek csökkenésének mérete, robusztussága és tartóssága” azt sugallja, hogy „elérhető közelségbe kerülhet a tévhitek újrakalibrálását célzó, méretezhető beavatkozás”. A lehetséges korlátok között azonban szerepelnek az új összeesküvés-elméletekre való reagálás nehézségei, valamint a tudományos intézményekben kevéssé bízó emberek rábírása arra, hogy lépjenek kapcsolatba a robotokkal - mondta Bence Bago a hollandiai Tilburgi Egyetemről és Jean-François Bonnefon a Toulouse-i Közgazdasági Főiskoláról, akik együtt írták a tanulmányt.
„A mesterséges intelligenciával folytatott párbeszéd technikája azért olyan hatékony, mert automatizálja a konkrét és alapos ellenbizonyítékok generálását az összeesküvés-hívők bonyolult érveivel szemben, és ezért bevethető lenne a pontos, helyesbítő információk széles körű biztosítására” - mondta Bago és Bonnefon, akik nem vettek részt a kutatásban. "E potenciál megvalósításának fontos korlátja a szállításban rejlik” - tették hozzá. „Nevezetesen, hogyan lehet rávenni a megrögzött összeesküvés-hiedelmekkel rendelkező egyéneket arra, hogy elkezdjenek beszélgetni egy megfelelően képzett mesterséges intelligencia-programmal.”