SG.hu

Egy MI-eszköz emberi beavatkozás nélkül próbált behatolni pénz­ügyi és kormány­za­ti intézményekbe

A mesterséges intelligenciával foglalkozó amerikai székhelyű Anthropic azt állítja, hogy megállított egy Kína által támogatott kibertámadási kampányt, amely képes volt pénzügyi intézményekbe és kormányzati szervekbe behatolni szinte emberi beavatkozás nélkül.

A cég közlése szerint egy szeptemberi támadás során az Anthropic saját kódoló eszközét, a Claude Code-ot manipulálták. Világszerte 30 célpontot támadtak, amelyek közül néhány behatolás sikerrel járt. A vállalat blogbejegyzése szerint ez a támadás jelentős előrelépés a korábbi MI-vezérelt incidensekhez képest, mivel a Claude nagyrészt önállóan hajtotta végre a műveleteket: a támadás 80-90 százaléka emberi felügyelet nélkül történt. Az Anthropic nem nevezte meg az érintett pénzügyi intézményeket és kormányzati szerveket, és nem részletezte, pontosan mit értek el a hackerek, bár azt közölték, hogy hozzáfértek a célpontok belső adataihoz. A támadások végrehajtása közben a Claude többször hibázott, olykor kitalált tényeket közölt célpontjairól, vagy állította, hogy olyan információkat talált, amelyek valójában szabadon hozzáférhetők voltak.

A politikusok és egyes szakértők szerint az eset aggasztó jele annak, milyen képességekre tett szert néhány MI-rendszer, hiszen ezek szerint az olyan eszközök, mint a Claude, hosszabb ideig önállóan tudnak dolgozni. Chris Murphy amerikai szenátor az esettel kapcsolatban az X közösségi platformon úgy fogalmazott, hogy az MI rendszerek gyors fejlődése súlyos fenyegetést jelent, és sürgős szabályozási lépésekre van szükség. Fred Heiding, a Harvard Egyetem számítástechnikai biztonsági kutatója szerint az MI rendszerek már képesek olyan feladatokat ellátni, amelyeket korábban képzett emberek végeztek, ami megkönnyíti a támadók dolgát, és az MI-vállalatok nem vállalnak elegendő felelősséget.


Más biztonsági szakértők szkeptikusak, és arra hívják fel a figyelmet, hogy az elmúlt években az MI-vezérelt kibertámadásokkal kapcsolatos állítások gyakran túlzóak voltak. Michal Wozniak független szakértő szerint az Anthropic csupán automatizált folyamatokat ír le, és az MI-val kapcsolatos túlzások a figyelem elterelésére szolgálnak, miközben a valódi veszélyt a cégek és kormányzatok által használt, bonyolult és kevéssé átlátható MI-eszközök jelentik, amelyek sebezhetőséget okozhatnak.

Az Anthropic - akárcsak más vezető MI-vállalatok - beépített védelmi mechanizmusokkal rendelkezik, amelyek célja, hogy megakadályozzák a modellek használatát kibertámadásokhoz vagy ártalmas tevékenységhez. A támadók azonban képesek voltak kijátszani ezeket a mechanizmusokat azzal, hogy a feladatokat apró lépésekre bontották, amelyeket az MI eszköz önmagukban nem értelmezett rosszindulatúnak, másrészt a Claude-ot arra utasították, játssza el egy “legitim kiberbiztonsági cég alkalmazottját”, aki teszteket végez. Wozniak szerint ez mutatja, hogy még a több mint 180 milliárd dolláros értékű vállalat eszközei sem tökéletesek, és egyszerű trükkökkel is kijátszhatók.

Marius Hobbhahn, az Apollo Research alapítója, amely MI-modellek biztonságát vizsgálja, úgy véli, hogy az eset figyelmeztetés arra, mire számíthatunk a jövőben. Szerinte a hasonló események száma növekedhet, és következményeik valószínűleg súlyosabbak lesznek. Az eset rávilágít arra, hogy a társadalom nincs felkészülve az MI és a kiberbiztonság gyorsan változó világára, és komoly kihívások elé nézünk a technológiai fejlődés és a védelmi mechanizmusok közötti egyensúly megteremtésében.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
Nem érkezett még hozzászólás. Legyél Te az első!