SG.hu
Az MI miatt többen csalnak, mint valaha
Egy tanulmány szerint ha egy olyan gépre bízzuk a feladatot, amely engedékeny az emberi kérésekkel szemben, az megsokszorozza az etikátlan döntéseket. A szerzők úgy vélik, hogy a platformok tervezését meg kell változtatni, hogy ez elkerülhető legyen.
Egy friss kutatás szerint az emberek sokkal könnyebben követnek el etikátlan cselekedeteket, ha mesterséges intelligenciára bízzák a döntéseiket, mert így csökken a személyes felelősségérzetük, derül ki egy új tudományos tanulmányból, amelyet nemrég publikáltak a Nature folyóiratban. A mesterséges intelligencia egyfajta pszichológiai pufferként működik, amely csökkenti a morális felelősség érzését. Az embereknek nehezebb hazudni vagy felelőtlen dolgokat tenni, ha az egész felelősséget magukra kell vállalniuk. Az MI, és az a hajlandósága, hogy teljesítse a felhasználók bármilyen kérését, csalások hullámát okozhatja.
„Már elég sok kutatás bizonyítja, hogy az emberek hajlamosabbak etikátlanul cselekedni, ha bizonyos távolságot tudnak tartani tetteiktől. A delegálás egy klasszikus módja ennek” - összegzi Zoe Rahwan, a cikk társszerzője, a német Max Planck Intézet kutatója. „De egy második, meglepő kulcsfontosságú megállapításra is jutottunk: az MI-ügynökök rendkívül hajlandóak nyíltan etikátlan parancsokat teljesíteni” - teszi hozzá.
A szerzők több kísérletet is végeztek, amelyekben változtatták a kérés vagy az eredmények közlésének módját. Az egyikben kockát dobtak, és ha az eredmény magas volt, a résztvevő több pénzt nyert. Csak a felhasználó látta az eredményt. „Hatalmas növekedést tapasztaltunk a csalások számában, amikor a delegációs felületet homályosabbá tettük” - részletezi Nils Köbis, szintén társszerző és kutató a Duisburg-Essen Egyetemen.
Amikor az emberek közvetítő nélkül dobták a kockát, nagyon őszinték voltak, körülbelül 95% nem csalt. Amikor kifejezetten meg kellett mondaniuk a gépnek, hogy milyen szabályokat kövessen, az őszinteség 75%-ra csökkent. De amikor több lehetőség nyílt a csalásra, és mégsem kellett rosszul érezni magukat, akkor elszabadult a pokol. A célalapú utasítások esetén a becstelenség emelkedett: ha azt mondhatták az MI-nek, hogy „maximalizáld a nyereséget” ahelyett, hogy „maximalizáld a pontosságot”, több mint 84% csalt, és az őszinteség 12%-ra zuhant. „Ezek olyan csalási szintek, amelyeket még soha nem láttunk az évek során, amióta ezeket a kísérleteket végzünk” - mondja Köbis.
A tesztek nem korlátozódtak a laboratóriumokban jellemző dolgokra, mint például a kockajáték. Kipróbáltak valami sokkal valóságosabbat is, mint például az adócsalás. És az eredmények hasonlóak voltak. „A központi probléma az, hogy a delegálás morális távolságot teremt, ami megkönnyíti az emberek számára, hogy azt mondják: „Ó, én nem akartam, hogy ez történjen”. Elrejtőzhetnek az algoritmus mögött” - mondja Köbis.
A szerzők szerint ez a morális távolság két szinten működik. Először is, már maga a feladat delegálása is pszichológiai távolságot teremt a felhasználó és az etikátlan cselekedet között. A munka gépre bízása csökkenti a közvetlen felelősség érzését. Az emberrel ellentétben egy gép sokkal nagyobb valószínűséggel teljesíti az etikátlan kéréseket ítélkezés nélkül, ami megkönnyíti ezeknek a parancsoknak a kiadását.
Másodszor, az interfész kialakítása csökkentheti vagy növelheti ezt a morális távolságot. „Amikor az embereknek explicit, szabályokon alapuló utasításokat kellett adniuk, kevésbé voltak hajlamosak csalni. De amikor az interfész homályos és általános célokat tett lehetővé, mint például a „nyereség maximalizálása”, úgy tűnik, hogy ez erkölcsi mozgásteret teremtett” - mondja Köbis. „Ez a kétértelműség egyfajta hihető tagadást ad, lehetővé téve a felhasználók számára, hogy a tisztességtelen eredményekből profitáljanak anélkül, hogy azokat kifejezetten meg kellene parancsolniuk” - teszi hozzá.
A szerzők szerint a platformok tervezését meg kell változtatni, hogy elkerülhető legyen ez a fajta használat. Különösen akkor, amikor közeledik az ügynökök korszaka, amikor az MI átveszi az irányítást, hogy önállóan hajtson végre műveleteket, amelyek között csalárd cselekmények is szerepelhetnek. „A vállalatok és az interfészeik tervezése nagy felelősséggel jár” - mondja Rahwan. „A kutatások azt mutatják, hogy bár az embereknek van erkölcsi iránytűjük, bizonyos tervezési megoldások megkönnyítik annak figyelmen kívül hagyását. Ezek nem egyszerű tervezési hibák, hanem nagyon komoly etikai következményekkel járó tervezési döntések” - teszi hozzá.
A chatbotokat úgy tanítják be, hogy ne adjanak rossz tanácsokat, például bombakészítésről vagy öngyilkosságról. De az ilyen típusú, kétértelműbb kérések kevésbé észlelhetők. "A tervezési felelősség másik fontos része a hatékony védelmi intézkedések alkalmazása, de ez egyáltalán nem egyszerű. A tesztelt nyelvi modellek alapértelmezett korlátai nagyrészt nem voltak elégségesek a visszaélések megelőzéséhez” - mondja Rahwan. Ahhoz, hogy hatékonyak legyenek, a tilalmaknak nagyon specifikusnak kell lenniük minden egyes feladat esetében. A leghatékonyabb egy olyan figyelmeztetés volt, amely kifejezetten megtiltotta az MI-nek a csalást. A probléma az, hogy ez a fajta stratégia nem skálázható, mert nem lehet minden visszaéléses esetet előre látni.
Egy friss kutatás szerint az emberek sokkal könnyebben követnek el etikátlan cselekedeteket, ha mesterséges intelligenciára bízzák a döntéseiket, mert így csökken a személyes felelősségérzetük, derül ki egy új tudományos tanulmányból, amelyet nemrég publikáltak a Nature folyóiratban. A mesterséges intelligencia egyfajta pszichológiai pufferként működik, amely csökkenti a morális felelősség érzését. Az embereknek nehezebb hazudni vagy felelőtlen dolgokat tenni, ha az egész felelősséget magukra kell vállalniuk. Az MI, és az a hajlandósága, hogy teljesítse a felhasználók bármilyen kérését, csalások hullámát okozhatja.
„Már elég sok kutatás bizonyítja, hogy az emberek hajlamosabbak etikátlanul cselekedni, ha bizonyos távolságot tudnak tartani tetteiktől. A delegálás egy klasszikus módja ennek” - összegzi Zoe Rahwan, a cikk társszerzője, a német Max Planck Intézet kutatója. „De egy második, meglepő kulcsfontosságú megállapításra is jutottunk: az MI-ügynökök rendkívül hajlandóak nyíltan etikátlan parancsokat teljesíteni” - teszi hozzá.
A szerzők több kísérletet is végeztek, amelyekben változtatták a kérés vagy az eredmények közlésének módját. Az egyikben kockát dobtak, és ha az eredmény magas volt, a résztvevő több pénzt nyert. Csak a felhasználó látta az eredményt. „Hatalmas növekedést tapasztaltunk a csalások számában, amikor a delegációs felületet homályosabbá tettük” - részletezi Nils Köbis, szintén társszerző és kutató a Duisburg-Essen Egyetemen.
Amikor az emberek közvetítő nélkül dobták a kockát, nagyon őszinték voltak, körülbelül 95% nem csalt. Amikor kifejezetten meg kellett mondaniuk a gépnek, hogy milyen szabályokat kövessen, az őszinteség 75%-ra csökkent. De amikor több lehetőség nyílt a csalásra, és mégsem kellett rosszul érezni magukat, akkor elszabadult a pokol. A célalapú utasítások esetén a becstelenség emelkedett: ha azt mondhatták az MI-nek, hogy „maximalizáld a nyereséget” ahelyett, hogy „maximalizáld a pontosságot”, több mint 84% csalt, és az őszinteség 12%-ra zuhant. „Ezek olyan csalási szintek, amelyeket még soha nem láttunk az évek során, amióta ezeket a kísérleteket végzünk” - mondja Köbis.
A tesztek nem korlátozódtak a laboratóriumokban jellemző dolgokra, mint például a kockajáték. Kipróbáltak valami sokkal valóságosabbat is, mint például az adócsalás. És az eredmények hasonlóak voltak. „A központi probléma az, hogy a delegálás morális távolságot teremt, ami megkönnyíti az emberek számára, hogy azt mondják: „Ó, én nem akartam, hogy ez történjen”. Elrejtőzhetnek az algoritmus mögött” - mondja Köbis.
A szerzők szerint ez a morális távolság két szinten működik. Először is, már maga a feladat delegálása is pszichológiai távolságot teremt a felhasználó és az etikátlan cselekedet között. A munka gépre bízása csökkenti a közvetlen felelősség érzését. Az emberrel ellentétben egy gép sokkal nagyobb valószínűséggel teljesíti az etikátlan kéréseket ítélkezés nélkül, ami megkönnyíti ezeknek a parancsoknak a kiadását.
Másodszor, az interfész kialakítása csökkentheti vagy növelheti ezt a morális távolságot. „Amikor az embereknek explicit, szabályokon alapuló utasításokat kellett adniuk, kevésbé voltak hajlamosak csalni. De amikor az interfész homályos és általános célokat tett lehetővé, mint például a „nyereség maximalizálása”, úgy tűnik, hogy ez erkölcsi mozgásteret teremtett” - mondja Köbis. „Ez a kétértelműség egyfajta hihető tagadást ad, lehetővé téve a felhasználók számára, hogy a tisztességtelen eredményekből profitáljanak anélkül, hogy azokat kifejezetten meg kellene parancsolniuk” - teszi hozzá.
A szerzők szerint a platformok tervezését meg kell változtatni, hogy elkerülhető legyen ez a fajta használat. Különösen akkor, amikor közeledik az ügynökök korszaka, amikor az MI átveszi az irányítást, hogy önállóan hajtson végre műveleteket, amelyek között csalárd cselekmények is szerepelhetnek. „A vállalatok és az interfészeik tervezése nagy felelősséggel jár” - mondja Rahwan. „A kutatások azt mutatják, hogy bár az embereknek van erkölcsi iránytűjük, bizonyos tervezési megoldások megkönnyítik annak figyelmen kívül hagyását. Ezek nem egyszerű tervezési hibák, hanem nagyon komoly etikai következményekkel járó tervezési döntések” - teszi hozzá.
A chatbotokat úgy tanítják be, hogy ne adjanak rossz tanácsokat, például bombakészítésről vagy öngyilkosságról. De az ilyen típusú, kétértelműbb kérések kevésbé észlelhetők. "A tervezési felelősség másik fontos része a hatékony védelmi intézkedések alkalmazása, de ez egyáltalán nem egyszerű. A tesztelt nyelvi modellek alapértelmezett korlátai nagyrészt nem voltak elégségesek a visszaélések megelőzéséhez” - mondja Rahwan. Ahhoz, hogy hatékonyak legyenek, a tilalmaknak nagyon specifikusnak kell lenniük minden egyes feladat esetében. A leghatékonyabb egy olyan figyelmeztetés volt, amely kifejezetten megtiltotta az MI-nek a csalást. A probléma az, hogy ez a fajta stratégia nem skálázható, mert nem lehet minden visszaéléses esetet előre látni.