SG.hu

MI-botok beszél­get­hetnek egymással a közösségi hálózatokon

A ChatGPT forradalmasíthatja a webes keresést, egyszerűsítheti az irodai munkákat és átalakíthatja az oktatást, de a chatbot a közösségi médiában kriptokereskedőként is munkát talált.

Az Indiana University Bloomington kutatói májusban fedeztek fel egy ChatGPT által működtetett botnetet, amely az X-en - a korábban Twitter néven ismert közösségi hálózaton - működött. A botnetet a kutatók Fox8-nak nevezték el a kriptopénzekkel foglalkozó, ugyanezen név valamely változatát viselő weboldalakkal való kapcsolata miatt. 1140 fiókból állt, és ezek a ChatGPT-t használták a közösségi médiában közzétett bejegyzések elkészítésére és egymás bejegyzéseire való válaszadásra. Az automatikusan generált tartalmakat nyilvánvalóan arra tervezték, hogy a linkekre kattintva gyanútlan embereket csalogassanak a kriptovaluta-oldalakra.

Micah Musser, a mesterséges intelligencia által vezérelt dezinformáció lehetőségeit tanulmányozó kutató szerint a Fox8 botnet csak a jéghegy csúcsa lehet, tekintve, hogy a nagyméretű nyelvi modellek és chatbotok milyen népszerűvé váltak. Szerinte nagyon valószínű, hogy minden egyes megtalált botnethez sok más, sokkal kifinomultabb dolgokat művelő botnet társul. A Fox8 hálózat ugyan kiterjedt volt, de a ChatGPT-t nem valami kifinomultan használta. A kutatók úgy fedezték fel a botnetet, hogy a platformon rákerestek az árulkodó "As an AI language model ..." kifejezésre, amelyet a ChatGPT sokszor berak érzékeny témájú kérések elé. Ezután egyesével elemezték a fiókokat, hogy azonosítsák azokat, amelyekről úgy tűnt, hogy botok üzemeltetik.



"Az egyetlen ok, amiért észrevettük ezt a bizonyos botnetet, az az, hogy hanyagok voltak" - mondja Filippo Menczer, az Indiana University Bloomington professzora, aki Kai-Cheng Yanggal, egy hallgatóval végezte a kutatást, aki a következő tanévben posztdoktori kutatóként csatlakozik a Northeastern Universityhöz. Az aprócska hiba ellenére a botnet számos kriptovalutát népszerűsítő meggyőző üzenetet tett közzé. Az a látszólagos könnyedség, amellyel a jelek szerint az OpenAI mesterséges intelligenciáját az átveréshez hasznosították azt jelenti, hogy fejlett chatbotok működtethetnek más, még felderítetlen botneteket is. "Az elég jó képességű rosszfiúk nem követik el ezt a hibát" - mondja Menczer.

Az OpenAI nem kivánta kommentálni a dolgot, mindazonáltal az MI-modellek felhasználási irányelvei tiltják, hogy azokat csalásra vagy dezinformációra használják. A ChatGPT és más élvonalbeli chatrobotok úgynevezett nagy nyelvi modelleket használnak arra, hogy egy kérésre válaszolva szöveget generáljanak. Elegendő képzési adatokkal - amelyek nagy része a világháló különböző helyeiről származik -, elegendő számítógépes erővel és az emberi tesztelők visszajelzéseivel a ChatGPT-hez hasonló botok meglepően kifinomult módon tudnak reagálni a bemenetek széles skálájára. Ugyanakkor képesek gyűlölködő üzeneteket is kiadni, társadalmi elfogultságot mutatni és kitalálni dolgokat.


A botok úgy működtek, mint a magyar kormánypárti média, egymásra hivatkoztak és egymással beszélgettek

Egy megfelelően konfigurált ChatGPT-alapú botnetet nehéz kiszúrni, könnyen át tudja verni a felhasználókat és hatékonyan ki tudja játszani a közösségi médiában a tartalmak rangsorolására használt algoritmusokat. "A platformot és a felhasználókat is becsapja" - mondta Menczer a ChatGPT-alapú botnetről. Ha pedig a közösségi média algoritmusa azt veszi észre, hogy egy posztot sokan látogatnak - még akkor is, ha ez a látogatottság más botfiókoktól származik -, akkor a posztot több embernek fogja megmutatni. "Pontosan ezért viselkednek ezek a botok úgy, ahogyan viselkednek" - mondja Menczer. Úgy véli, hogy a dezinformációs kampányokat folytatni kívánó kormányok nagy valószínűséggel már most is ilyen eszközöket fejlesztenek vagy vetnek be.

A kutatók már régóta aggódnak amiatt, hogy a ChatGPT mögött álló technológia dezinformációs kockázatot jelenthet, és az OpenAI még a rendszer elődjének kiadását is elhalasztotta az ilyen félelmek miatt. Eddig azonban kevés konkrét példa van arra, hogy a nagyméretű nyelvi modellekkel nagyszabású visszaélést követtek volna el. Néhány politikai kampányban azonban már használtak mesterséges intelligenciát: prominens politikusok osztottak meg olyan deepfake videókat, amelyeket ellenfeleik lejáratására terveztek. Ma már sok spam weboldalt automatikusan generálnak, és az embereknek egyre nehezebb kiszúrni ezeket az anyagokat. És mivel a mesterséges intelligencia folyamatosan fejlődik, ez csak egyre nehezebb lesz.

Az X termékeny tesztelési terep lehet az ilyen eszközök számára. Menczer szerint a rosszindulatú botok sokkal gyakoribbá váltak, mióta Elon Musk átvette a Twittert, annak ellenére, hogy a technológiai mogul ígéretet tett a kiirtásukra. A kutatók számára pedig nehezebbé vált a probléma tanulmányozása az API használatára kivetett meredek árdrágítás miatt. Az X-nél a tanulmány publikálása után észlélték a problémát, és leszedték a Fox8 botnetet. Menczer csoportja régebben értesítette a Twittert az új eredményeiről, de ezt már nem teszik meg az X-szel. "Nem igazán reagálnak" - mondja Menczer. "Nincsenek már hozzá embereik".

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • koviroli #1
    "A botok úgy működtek, mint a magyar kormánypárti média, egymásra hivatkoztak és egymással beszélgettek"

    Eddig olvastam. Az újságírásnak, főleg azon cikkeknél aminek semmi köze a politikához, semlegesnek kéne lennie. Pedig érdekes cikk volt.