SG.hu
A mesterséges intelligenciamodellek tökélyre fejlesztették a mellébeszélést
A nagy nyelvi modellek nem törődnek az igazsággal, mert fogalmuk sincs róla - és ebben rejlik a veszély.
Harry Frankfurt filozófus szerint nem a hazugság az igazság legnagyobb ellensége, mert a baromság rosszabb. Ahogyan a klasszikus esszéjében, az On Bullshit (1986) címűben kifejtette, a hazug és az igazmondó ugyanazt a játékot játssza, csak éppen ellentétes oldalon. Mindketten úgy reagálnak a tényekre, ahogyan azokat értelmezik, és vagy elfogadják vagy elutasítják az igazság tekintélyét. A hülyeségeket beszélő azonban teljesen figyelmen kívül hagyja ezeket az igényeket. "Ő nem utasítja el az igazság tekintélyét, mint a hazug, és nem állítja szembe magát vele. Egyáltalán nem fordít rá figyelmet. Emiatt a mellébeszélés nagyobb ellensége az igazságnak, mint a hazugság". Az ilyen ember a tényekre való tekintet nélkül akar meggyőzni másokat.
Frankfurt 2023-ban halt meg, alig néhány hónappal a ChatGPT megjelenése után, de esszéjének olvasása a generatív mesterséges intelligencia korában émelyítő ismerősséget vált ki. Frankfurt esszéje több szempontból is jól jellemzi a mesterséges intelligenciával támogatott nagy nyelvi modellek kimenetét. Nem foglalkoznak az igazsággal, mert nincs róla fogalmuk. Nem empirikus megfigyeléssel, hanem statisztikai korrelációval dolgoznak.
"A legnagyobb erősségük, de egyben a legnagyobb veszélyük is az, hogy szinte bármilyen témában tekintélyesnek tudnak tűnni, függetlenül a tényszerűségtől. Más szóval, a szupererejük, az emberfeletti képességük, hogy baromságokat beszéljenek" - írta Carl Bergstrom és Jevin West. A Washingtoni Egyetem két professzora online kurzust indít - Modern-Day Oracles or Bullshit Machines? -, amely ezeket a modelleket veszi górcső alá.
Az LLM-ek egyik legismertebb és legbizonytalanítóbb, de néha érdekes módon kreatív jellemzője a tények „hallucinálása” - vagy egyszerűen csak a dolgok kitalálása. Egyes kutatók szerint ez a valószínűségi modellek velejárója, nem pedig javítható hiba. A mesterséges intelligenciával foglalkozó vállalatok azonban az adatok minőségének javításával, a modellek finomhangolásával, valamint az ellenőrző és tényellenőrző rendszerek beépítésével próbálják megoldani ezt a problémát. Úgy tűnik azonban, hogy van még mit tenniük, például a Google chatbotja külön jelzi a felhasználóknak: "A Gemini hibázhat, többek között az emberekről is, ezért ellenőrizze kétszer is”. Ez nem akadályozta meg a Google-t abban, hogy a keresésben teljesen átadja a szerepet az MI-nek, és minden szolgáltatásába beépítse azt.
Az a mód, ahogyan ezek a vállalatok próbálják fejleszteni modelljeiket, beleértve az emberi visszajelzésekből történő megerősített tanulást, maga is azzal a kockázattal jár, hogy elfogultságot, torzítást és nem deklarált értékítéleteket vezet be. Az OpenAI, az Anthropic, a Google, a Meta, az xAI és a DeepSeek chatbotjai nagyon különbözőképpen írják le saját cégük és a riválisok vezetőinek tulajdonságait. Elon Musk Grokja a dél-afrikai „fehér népirtásról” szóló mémeket is népszerűsített teljesen eltérő kérésekre válaszul. Az xAI közölte, hogy kijavította a hibát, amelyért egy „nem engedélyezett módosítást” okoltak.
Sandra Wachter, Brent Mittelstadt és Chris Russell az Oxford Internet Institute tanulmánya szerint az ilyen modellek a potenciális károkozás egy új, még rosszabb kategóriáját, a „gondatlan beszédet” hozzák létre. Véleményük szerint a gondatlan beszéd megfoghatatlan, hosszú távú és halmozott károkat okozhat. Olyan, mint a „láthatatlan baromság”, amely butítja a társadalmat - mondja Wachter. Egy politikus vagy üzletkötő esetében legalább általában megértjük a motivációjukat. A chatbotok azonban nem rendelkeznek szándékossággal, hanem a hihetőségre és az elkötelezettségre optimalizáltak, nem pedig az igazságtartalomra. Tényeket fognak kitalálni minden cél nélkül. Felfoghatatlan módon szennyezhetik az emberiség tudásbázisát.
Az érdekes kérdés az, hogy vajon a mesterséges intelligenciamodelleket lehet-e nagyobb igazságtartalomra tervezni. Lesz-e rájuk piaci igény? Vagy a modellek fejlesztőit magasabb igazságtartalmak betartására kellene kényszeríteni, ahogyan azt például a hirdetőkre, ügyvédekre és orvosokra is alkalmazzák? Wachter szerint az igazmondóbb modellek kifejlesztése rengeteg időt, pénzt és erőforrásokat igényelne, míg a jelenlegi alkalmazások célja épp ezek ellenkezője, a megtakarítás. "Ez olyan, mintha azt akarnánk, hogy egy autó repülőgép legyen. Lelökhetsz egy autót egy szikláról, de nem fog dacolni a gravitációval" - mondja.
Mindezek ellenére a generatív MI-modellek még mindig hasznosak és értékesek lehetnek. Sok jövedelmező üzleti - és politikai - karrier épült már bullshitekre. Megfelelően alkalmazva a generatív MI számtalan üzleti felhasználási esetre alkalmazható. De tévhit és veszélyes ezeket a modelleket az igazsággépekkel összetéveszteni.
Harry Frankfurt filozófus szerint nem a hazugság az igazság legnagyobb ellensége, mert a baromság rosszabb. Ahogyan a klasszikus esszéjében, az On Bullshit (1986) címűben kifejtette, a hazug és az igazmondó ugyanazt a játékot játssza, csak éppen ellentétes oldalon. Mindketten úgy reagálnak a tényekre, ahogyan azokat értelmezik, és vagy elfogadják vagy elutasítják az igazság tekintélyét. A hülyeségeket beszélő azonban teljesen figyelmen kívül hagyja ezeket az igényeket. "Ő nem utasítja el az igazság tekintélyét, mint a hazug, és nem állítja szembe magát vele. Egyáltalán nem fordít rá figyelmet. Emiatt a mellébeszélés nagyobb ellensége az igazságnak, mint a hazugság". Az ilyen ember a tényekre való tekintet nélkül akar meggyőzni másokat.
Frankfurt 2023-ban halt meg, alig néhány hónappal a ChatGPT megjelenése után, de esszéjének olvasása a generatív mesterséges intelligencia korában émelyítő ismerősséget vált ki. Frankfurt esszéje több szempontból is jól jellemzi a mesterséges intelligenciával támogatott nagy nyelvi modellek kimenetét. Nem foglalkoznak az igazsággal, mert nincs róla fogalmuk. Nem empirikus megfigyeléssel, hanem statisztikai korrelációval dolgoznak.
"A legnagyobb erősségük, de egyben a legnagyobb veszélyük is az, hogy szinte bármilyen témában tekintélyesnek tudnak tűnni, függetlenül a tényszerűségtől. Más szóval, a szupererejük, az emberfeletti képességük, hogy baromságokat beszéljenek" - írta Carl Bergstrom és Jevin West. A Washingtoni Egyetem két professzora online kurzust indít - Modern-Day Oracles or Bullshit Machines? -, amely ezeket a modelleket veszi górcső alá.
Az LLM-ek egyik legismertebb és legbizonytalanítóbb, de néha érdekes módon kreatív jellemzője a tények „hallucinálása” - vagy egyszerűen csak a dolgok kitalálása. Egyes kutatók szerint ez a valószínűségi modellek velejárója, nem pedig javítható hiba. A mesterséges intelligenciával foglalkozó vállalatok azonban az adatok minőségének javításával, a modellek finomhangolásával, valamint az ellenőrző és tényellenőrző rendszerek beépítésével próbálják megoldani ezt a problémát. Úgy tűnik azonban, hogy van még mit tenniük, például a Google chatbotja külön jelzi a felhasználóknak: "A Gemini hibázhat, többek között az emberekről is, ezért ellenőrizze kétszer is”. Ez nem akadályozta meg a Google-t abban, hogy a keresésben teljesen átadja a szerepet az MI-nek, és minden szolgáltatásába beépítse azt.
Az a mód, ahogyan ezek a vállalatok próbálják fejleszteni modelljeiket, beleértve az emberi visszajelzésekből történő megerősített tanulást, maga is azzal a kockázattal jár, hogy elfogultságot, torzítást és nem deklarált értékítéleteket vezet be. Az OpenAI, az Anthropic, a Google, a Meta, az xAI és a DeepSeek chatbotjai nagyon különbözőképpen írják le saját cégük és a riválisok vezetőinek tulajdonságait. Elon Musk Grokja a dél-afrikai „fehér népirtásról” szóló mémeket is népszerűsített teljesen eltérő kérésekre válaszul. Az xAI közölte, hogy kijavította a hibát, amelyért egy „nem engedélyezett módosítást” okoltak.
Sandra Wachter, Brent Mittelstadt és Chris Russell az Oxford Internet Institute tanulmánya szerint az ilyen modellek a potenciális károkozás egy új, még rosszabb kategóriáját, a „gondatlan beszédet” hozzák létre. Véleményük szerint a gondatlan beszéd megfoghatatlan, hosszú távú és halmozott károkat okozhat. Olyan, mint a „láthatatlan baromság”, amely butítja a társadalmat - mondja Wachter. Egy politikus vagy üzletkötő esetében legalább általában megértjük a motivációjukat. A chatbotok azonban nem rendelkeznek szándékossággal, hanem a hihetőségre és az elkötelezettségre optimalizáltak, nem pedig az igazságtartalomra. Tényeket fognak kitalálni minden cél nélkül. Felfoghatatlan módon szennyezhetik az emberiség tudásbázisát.
Az érdekes kérdés az, hogy vajon a mesterséges intelligenciamodelleket lehet-e nagyobb igazságtartalomra tervezni. Lesz-e rájuk piaci igény? Vagy a modellek fejlesztőit magasabb igazságtartalmak betartására kellene kényszeríteni, ahogyan azt például a hirdetőkre, ügyvédekre és orvosokra is alkalmazzák? Wachter szerint az igazmondóbb modellek kifejlesztése rengeteg időt, pénzt és erőforrásokat igényelne, míg a jelenlegi alkalmazások célja épp ezek ellenkezője, a megtakarítás. "Ez olyan, mintha azt akarnánk, hogy egy autó repülőgép legyen. Lelökhetsz egy autót egy szikláról, de nem fog dacolni a gravitációval" - mondja.
Mindezek ellenére a generatív MI-modellek még mindig hasznosak és értékesek lehetnek. Sok jövedelmező üzleti - és politikai - karrier épült már bullshitekre. Megfelelően alkalmazva a generatív MI számtalan üzleti felhasználási esetre alkalmazható. De tévhit és veszélyes ezeket a modelleket az igazsággépekkel összetéveszteni.