SG.hu

A mesterséges intelligencia meggyőzőbb egy vitában, mint az emberek

A technológiai megfigyelők már régóta figyelmeztetnek arra, hogy a mesterséges intelligencia szerepet játszhat a félretájékoztatás terjesztésében és az ideológiai megosztottság elmélyítésében. Most a kutatóknak bizonyítékuk van arra, hogy a mesterséges intelligencia mennyire képes befolyásolni a véleményeket. Amikor a chatbotok alapvető információkat kaptak ellenfeleikről, az online vitákban az érveiket módosítva meggyőzőbbek lettek, mint az emberek.

A Nature Human Behavior című szaklapban megjelent tanulmány szerint a nagy nyelvi modellek (LLM) néven ismert mesterséges intelligencia chatbotok, miután minimális információt kaptak ellenfeleikről, az online vitákban az esetek 64 százalékában képesek voltak érveiket kiigazítani és meggyőzőbbek voltak az embereknél. A kutatók megállapították, hogy még az ellenfelük személyes adataihoz való hozzáférés nélküli LLM-ek is meggyőzőbbek voltak az embereknél - mondta Riccardo Gallotti, a tanulmány társszerzője.

Gallotti, az olaszországi Fondazione Bruno Kessler kutatóintézet komplex emberi viselkedéssel foglalkozó részlegének vezetője hozzátette, hogy az ellenfeleik személyes információival rendelkező emberek valójában valamivel kevésbé voltak meggyőzőek, mint az ilyen ismeretekkel nem rendelkező emberek. Gallotti és kollégái úgy jutottak ezekre a következtetésekre, hogy 900, az Egyesült Államokban élő embert párosítottak össze egy másik emberrel vagy a GPT-4-gyel, az OpenAI által létrehozott LLM-mel, amelyet a köznyelvben ChatGPT-ként ismernek. Míg a 900 ember nem rendelkezett információkkal arról, hogy kivel vitatkoztak, néhány esetben az ellenfelek - ember vagy mesterséges intelligencia - hozzáférhettek néhány alapvető adathoz, amelyeket a résztvevők adtak meg, nevezetesen a nemükhöz, korukhoz, etnikai hovatartozásukhoz, iskolai végzettségükhöz, foglalkoztatási státuszukhoz és politikai hovatartozásukhoz.

A párok ezután számos vitatott társadalmi-politikai kérdésről vitáztak, például a halálbüntetésről vagy az éghajlatváltozásról. A vitákat olyan kérdésekkel fogalmazták meg, mint például „Törvényes legyen-e az abortusz?” vagy „Tiltsák-e be az USA-ban a fosszilis tüzelőanyagokat?” A résztvevőknek négy perc nyitóbeszédük volt, amelyben pro vagy kontra érveltek, három percet kaptak, hogy megcáfolják ellenfelük érveit, majd három percet, hogy befejezzék a vitát. A résztvevők ezután egy 1-től 5-ig terjedő skálán értékelték, hogy mennyire értenek egyet a vita felvetésével, amelynek eredményét a kutatók összevetették a vita megkezdése előtt adott értékelésükkel, és azt használták fel annak mérésére, hogy ellenfeleik mennyire tudták befolyásolni a véleményüket.

"Egyértelműen elértük azt a technológiai szintet, amikor már lehetséges olyan LLM-alapú automatizált profilok hálózatát létrehozni, amelyek képesek stratégiailag egy irányba terelni a közvéleményt” - mondta Gallotti. Az LLM-eknél a személyes adatok felhasználása finom, de hatékony volt. A kormány által támogatott egyetemes alapjövedelem mellett érvelve az LLM a gazdasági növekedést és a kemény munkát hangsúlyozta, amikor egy 35 és 44 év közötti fehér republikánus férfival vitázott. Amikor azonban ugyanebben a témában egy 45 és 54 év közötti fekete női demokratával vitázott, az LLM a kisebbségi közösségeket aránytalanul nagy mértékben érintő vagyoni különbségekről beszélt, és azzal érvelt, hogy az egyetemes alapjövedelem segíthet az egyenlőség előmozdításában.

"Kutatásunk fényében sürgőssé és szükségessé válik, hogy mindenki tisztában legyen a mikrotargeting gyakorlatával, amelyet az a hatalmas mennyiségű személyes adat tesz lehetővé, amelyet szétszórunk a világhálón” - mondta Gallotti. „Munkánk során megfigyeltük, hogy a mesterséges intelligencia alapú célzott meggyőzés már most is nagyon hatékony, csupán alapvető és viszonylag könnyen hozzáférhető információkkal."

Sandra Wachter, az Oxfordi Egyetem technológiai és szabályozási professzora „meglehetősen riasztónak” nevezte a tanulmány megállapításait. Wachter, akinek nem volt köze a tanulmányhoz, elmondta, hogy őt különösen az aggasztja, hogy a modellek hogyan használhatják ezt a meggyőzőképességet hazugságok és félretájékoztatás terjesztésére. "A nagy nyelvi modellek nem tesznek különbséget tény és fikció között. Szigorúan véve nem arra tervezték őket, hogy igazat mondjanak. Mégis számos olyan ágazatban alkalmazzák őket, ahol az igazság és a részletek számítanak, például az oktatásban, a tudományban, az egészségügyben, a médiában, a jogban és a pénzügyekben" - mondta Wachter.

Junade Ali, a brit Institute of Engineering and Technology AI és kiberbiztonsági szakértője elmondta, hogy bár szerinte a tanulmány nem mérlegelte a „hírnökbe vetett társadalmi bizalom” hatását - vagyis azt, hogy a chatbot hogyan szabná meg az érvelését, ha tudná, hogy egy képzett, a témában jártas ügyvéddel vagy szakértővel vitázik, és hogy ez az érvelés mennyire lenne meggyőző -, mégis „rávilágít az MI-technológiák egyik fő problémájára”. "Gyakran úgy hangolják őket, hogy azt mondják, amit az emberek hallani akarnak, nem pedig azt, ami feltétlenül igaz” - mondta.

Gallotti elmondta, hogy szerinte a szigorúbb és konkrétabb irányelvek és szabályozások segíthetnek ellensúlyozni az MI meggyőzés hatását. Megjegyezte, hogy bár az Európai Unió mesterséges intelligenciáról szóló törvénye tiltja az olyan mesterséges intelligencia-rendszereket, amelyek „tudatalatti technikákat” vagy „célzottan manipulatív vagy megtévesztő technikákat” alkalmaznak, amelyek ronthatják a polgárok tájékozott döntési képességét, nincs egyértelmű definíció arra, hogy mi minősül tudatalatti, manipulatív vagy megtévesztő technikának. "Kutatásunk pontosan bemutatja, hogy miért fontosak ezek a definíciós kihívások: Amikor a meggyőzés szociodemográfiai tényezők alapján erősen személyre szabott, a törvényes meggyőzés és a manipuláció közötti határvonal egyre inkább elmosódik" - mondta.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • manypet #3
    Ebben egyetértünk. Bár ne így lenne.
  • Csaba161 #2

    A baj csak az, hogy az emberek 99%-át nem érdekli, hogy "tényszerűen és bizonyíthatóan mi az igazság"...
  • manypet #1
    Mármint ha "vita" alatt a manipulációt és az érzelmekre hatást értjük, akkor mindenképpen. Egy jól képzett pszichopata szintjét simán el tudja érni.

    Más kérdés, hogy érdemi vitában nem az alapján döntjük el, kinek van igaza, hogy kire milyen érzelmi hatással van a leírt/kimondott érv. Hanem az alapján, hogy tényszerűen és bizonyíthatóan mi az igazság!