SG.hu
25 millió dollárt loptak el egy cégtől deepfake hamisítással
Egy multinacionális vállalat hongkongi irodája jelentős, 200 millió HK dollár összegű pénzügyi veszteséget szenvedett el egy kifinomult, deepfake technológiát alkalmazó csalás miatt. Az átverés során a vállalat pénzügyi vezetőjének digitálisan újjáalkotott változata és más alkalmazottak jelentek meg egy videokonferencia-hívásban, és egy alkalmazottat pénzátutalásra utasítottak. A hongkongi rendőrség a folyamatban lévő nyomozás miatt nem közölt részleteket arról, hogy melyik céget verték át.
Deepfake mesterséges intelligencia eszközökkel rendkívül meggyőző hamis videók vagy hangfelvételek hozhatók létre, és ma már szakértő szemnek is nehéz megkülönböztetni a valódi és a hamisított tartalmakat. Ez az incidens az első ilyen jellegű eset Hongkongban, amely nagy összeget érintett, és a deepfake technológia felhasználásával hajtották végre. A többszemélyes videokonferencián a résztvevők az áldozat kivételével mindannyian valódi személyek hamisított képei voltak. A csalók nyilvánosan elérhető video- és hangfelvételek segítségével nagyon meggyőzően tudták lemásolni a személyek megjelenését és hangját. A hívásban részt vevő vállalati kollégák úgy néztek ki és úgy hangzottak, mintha valódi emberek lennének, akiket az alkalmazott felismert. A hongkongi rendőrség jelenleg is nyomoz az ügyben, letartóztatásról még nem érkezett jelentés.
Az átverésre eredetileg egy adathalász kísérletet követően derült fény, amikor a vállalat hongkongi kirendeltségének pénzügyi osztályán dolgozó egyik alkalmazott egy adathalásznak tűnő üzenetet kapott, amely állítólag a vállalat Egyesült Királyságban székelő pénzügyi vezetőjétől származott, és egy titkos tranzakció végrehajtására utasította. A kezdeti kételyek ellenére az alkalmazottat a pénzügyi igazgató és mások jelenléte egy csoportos videohívás során eléggé meggyőzte ahhoz, hogy 15 átutalást hajtson végre összesen 200 millió hongkongi dollár értékben öt különböző hongkongi bankszámlára. A tisztviselők körülbelül egy héttel később jöttek rá a csalásra, ami rendőrségi nyomozást indított.
A csúcstechnológiás lopás aláhúzza a mesterséges intelligencia technológia új felhasználása miatti növekvő aggodalmat, amely a közelmúltban olyan esetek miatt került reflektorfénybe, mint a popsztár Taylor Swiftről készült hamis pornóképek elterjedése, de bűnözők audio deepfake technológiát is használtak már arra, hogy bajba jutott szeretteiknek kiadva magukat pénzt csaljanak ki az emberektől. A hongkongi rendőrség megbízott főfelügyelője, Baron Chan Shun-ching hangsúlyozta a csalás újszerűségét, megjegyezve, hogy ez volt az első eset Hongkongban, amikor az áldozatokat többszemélyes videokonferencia keretében verték át. Kiemelte a csaló stratégiáját, miszerint nem lépett közvetlenül kapcsolatba az áldozattal azon túl, hogy bemutatkozást kért, ami meggyőzőbbé tette az átverést. Chan szerint a csalók ugyanezzel a többszemélyes videohívási taktikával kerestek meg egy másik alkalmazottat is. A testület szerint összesen két-három alkalmazottat céloztak meg a csalók, de nem adtak teljes körű tájékoztatást a találkozásokról.
A rendőrség tippeket adott a videohívásokban részt vevő személyek hitelességének ellenőrzésére, például arra kérve őket, hogy mozdítsák meg a fejüket, vagy válaszoljanak olyan kérdésekre, amelyek megerősítik a személyazonosságukat, különösen, ha pénzátutalási kérelmekről van szó. Egy másik lehetséges megoldás a vállalati környezetben történő deepfake átverésekkel szemben, hogy minden alkalmazottat titkosított kulcspárral látnak el, és a személyes találkozókon a nyilvános kulcsok aláírásával teremtenek bizalmat. Később, a távoli kommunikáció során ezeket az aláírt kulcsokat lehetne használni a találkozón belüli felek hitelesítésére. Emellett a hongkongi rendőrség azt tervezi, hogy a gyors fizetési rendszerre (FPS) vonatkozó riasztási rendszerét kibővíti az ismert csalásokhoz kapcsolódó tranzakciókra vonatkozó figyelmeztetésekkel, és az év második felére az elektronikus és személyes tranzakciók szélesebb körére terjeszti ki a lefedettséget.
Deepfake mesterséges intelligencia eszközökkel rendkívül meggyőző hamis videók vagy hangfelvételek hozhatók létre, és ma már szakértő szemnek is nehéz megkülönböztetni a valódi és a hamisított tartalmakat. Ez az incidens az első ilyen jellegű eset Hongkongban, amely nagy összeget érintett, és a deepfake technológia felhasználásával hajtották végre. A többszemélyes videokonferencián a résztvevők az áldozat kivételével mindannyian valódi személyek hamisított képei voltak. A csalók nyilvánosan elérhető video- és hangfelvételek segítségével nagyon meggyőzően tudták lemásolni a személyek megjelenését és hangját. A hívásban részt vevő vállalati kollégák úgy néztek ki és úgy hangzottak, mintha valódi emberek lennének, akiket az alkalmazott felismert. A hongkongi rendőrség jelenleg is nyomoz az ügyben, letartóztatásról még nem érkezett jelentés.
Az átverésre eredetileg egy adathalász kísérletet követően derült fény, amikor a vállalat hongkongi kirendeltségének pénzügyi osztályán dolgozó egyik alkalmazott egy adathalásznak tűnő üzenetet kapott, amely állítólag a vállalat Egyesült Királyságban székelő pénzügyi vezetőjétől származott, és egy titkos tranzakció végrehajtására utasította. A kezdeti kételyek ellenére az alkalmazottat a pénzügyi igazgató és mások jelenléte egy csoportos videohívás során eléggé meggyőzte ahhoz, hogy 15 átutalást hajtson végre összesen 200 millió hongkongi dollár értékben öt különböző hongkongi bankszámlára. A tisztviselők körülbelül egy héttel később jöttek rá a csalásra, ami rendőrségi nyomozást indított.
A csúcstechnológiás lopás aláhúzza a mesterséges intelligencia technológia új felhasználása miatti növekvő aggodalmat, amely a közelmúltban olyan esetek miatt került reflektorfénybe, mint a popsztár Taylor Swiftről készült hamis pornóképek elterjedése, de bűnözők audio deepfake technológiát is használtak már arra, hogy bajba jutott szeretteiknek kiadva magukat pénzt csaljanak ki az emberektől. A hongkongi rendőrség megbízott főfelügyelője, Baron Chan Shun-ching hangsúlyozta a csalás újszerűségét, megjegyezve, hogy ez volt az első eset Hongkongban, amikor az áldozatokat többszemélyes videokonferencia keretében verték át. Kiemelte a csaló stratégiáját, miszerint nem lépett közvetlenül kapcsolatba az áldozattal azon túl, hogy bemutatkozást kért, ami meggyőzőbbé tette az átverést. Chan szerint a csalók ugyanezzel a többszemélyes videohívási taktikával kerestek meg egy másik alkalmazottat is. A testület szerint összesen két-három alkalmazottat céloztak meg a csalók, de nem adtak teljes körű tájékoztatást a találkozásokról.
A rendőrség tippeket adott a videohívásokban részt vevő személyek hitelességének ellenőrzésére, például arra kérve őket, hogy mozdítsák meg a fejüket, vagy válaszoljanak olyan kérdésekre, amelyek megerősítik a személyazonosságukat, különösen, ha pénzátutalási kérelmekről van szó. Egy másik lehetséges megoldás a vállalati környezetben történő deepfake átverésekkel szemben, hogy minden alkalmazottat titkosított kulcspárral látnak el, és a személyes találkozókon a nyilvános kulcsok aláírásával teremtenek bizalmat. Később, a távoli kommunikáció során ezeket az aláírt kulcsokat lehetne használni a találkozón belüli felek hitelesítésére. Emellett a hongkongi rendőrség azt tervezi, hogy a gyors fizetési rendszerre (FPS) vonatkozó riasztási rendszerét kibővíti az ismert csalásokhoz kapcsolódó tranzakciókra vonatkozó figyelmeztetésekkel, és az év második felére az elektronikus és személyes tranzakciók szélesebb körére terjeszti ki a lefedettséget.